diff --git a/.gitattributes b/.gitattributes index a6344aac8c09253b3b630fb776ae94478aa0275b..f3c2ede9b13bdef2174a55a4457d91fa01fd9e5c 100644 --- a/.gitattributes +++ b/.gitattributes @@ -1,6 +1,7 @@ *.7z filter=lfs diff=lfs merge=lfs -text *.arrow filter=lfs diff=lfs merge=lfs -text *.bin filter=lfs diff=lfs merge=lfs -text +*.csv filter=lfs diff=lfs merge=lfs -text *.bz2 filter=lfs diff=lfs merge=lfs -text *.ckpt filter=lfs diff=lfs merge=lfs -text *.ftz filter=lfs diff=lfs merge=lfs -text diff --git a/TreeTest.py b/TreeTest.py new file mode 100644 index 0000000000000000000000000000000000000000..e24df2724bb8c83fb201c04076ff5b0e38f894c3 --- /dev/null +++ b/TreeTest.py @@ -0,0 +1,13 @@ +from ddparser import DDParser +#2.4.0版本 的paddlepaddle +import nltk +# ddp = DDParser() +from nltk.corpus import treebank +# print(res) + +text=nltk.word_tokenize("论文从存货内部控制的五要素,看YT 超市存货内部控制的整体现状,发现其内部控制各关键环节存在的问题,并对原因进行分析,结合YT 超市的具体情况,依次分析存在问题环节的关键风险点、控制目标,并提出具体改进建议。论文从存货的分类角度去发现重点环节内部控制存在的问题。论文选题恰当,结构合理,论述清晰,写作规范,合乎逻辑。论文达到硕士毕业水平。") +t = treebank.parsed_sents('wsj_0001.mrg')[0] +t.draw() +print(text) +print(nltk.pos_tag(text)) + diff --git a/analyze_data.py b/analyze_data.py new file mode 100644 index 0000000000000000000000000000000000000000..40a538ee94b07cc10dc1971af99ea29ff22536ae --- /dev/null +++ b/analyze_data.py @@ -0,0 +1,23 @@ +import jieba +import matplotlib.pyplot as plt +from tqdm import tqdm + +from utils import parse_user_reviews + + +def analyze(contents): + sent_lengths = [] + + for sentence in tqdm(contents): + seg_list = list(jieba.cut(sentence.strip())) + # Update word frequency + sent_lengths.append(len(seg_list)) + + num_bins = 100 + n, bins, patches = plt.hist(sent_lengths, num_bins, facecolor='blue', alpha=0.5) + plt.show() + + +if __name__ == '__main__': + user_reviews = parse_user_reviews('train') + analyze(user_reviews['content']) diff --git a/bertviz_test.py b/bertviz_test.py new file mode 100644 index 0000000000000000000000000000000000000000..7738bd34eb0cbd8f04670b307f53c15c1f8e658f --- /dev/null +++ b/bertviz_test.py @@ -0,0 +1,23 @@ +# coding: utf-8 +from transformers import AutoTokenizer, AutoModel, utils +from bertviz import model_view, head_view + + +utils.logging.set_verbosity_error() # Suppress standard warnings +model_name='./chinese_wwm_pytorch' +input_text = '论文书写规范,逻辑合理,反映作者具有一定的分析问题、解决问题的能力' +tokenizer = AutoTokenizer.from_pretrained('./chinese_wwm_pytorch') +tokenizer.add_special_tokens({ "additional_special_tokens": [ "[unused1]", "[unused2]", "[unused3]"] }) +model = AutoModel.from_pretrained(model_name, output_attentions=True) # Configure model to return attention values +inputs = tokenizer.encode(input_text, return_tensors='pt') # Tokenize input text +print('inputs:', inputs) +outputs = model(inputs) # Run model +attention = outputs[-1] # Retrieve attention from model outputs +tokens = tokenizer.convert_ids_to_tokens(inputs[0]) # Convert input ids to token strings +print('tokens:', tokens) +# print('attention:',attention) +# model_view(attention, tokens) # Display model view +html_head_view = head_view(attention, tokens, html_action='return') + +with open("./bert.html", 'w') as file: + file.write(html_head_view.data) \ No newline at end of file diff --git a/chinese_wwm_pytorch/bert_config.json b/chinese_wwm_pytorch/bert_config.json new file mode 100644 index 0000000000000000000000000000000000000000..adb75ff5aaacf4050df7a63916e863f14fb7f644 --- /dev/null +++ b/chinese_wwm_pytorch/bert_config.json @@ -0,0 +1,19 @@ +{ + "attention_probs_dropout_prob": 0.1, + "directionality": "bidi", + "hidden_act": "gelu", + "hidden_dropout_prob": 0.1, + "hidden_size": 768, + "initializer_range": 0.02, + "intermediate_size": 3072, + "max_position_embeddings": 512, + "num_attention_heads": 12, + "num_hidden_layers": 12, + "pooler_fc_size": 768, + "pooler_num_attention_heads": 12, + "pooler_num_fc_layers": 3, + "pooler_size_per_head": 128, + "pooler_type": "first_token_transform", + "type_vocab_size": 2, + "vocab_size": 21128 +} diff --git a/chinese_wwm_pytorch/config.json b/chinese_wwm_pytorch/config.json new file mode 100644 index 0000000000000000000000000000000000000000..1748a3c4e65dd0fed0c63c6923134aea5710a30d --- /dev/null +++ b/chinese_wwm_pytorch/config.json @@ -0,0 +1,20 @@ +{ + "attention_probs_dropout_prob": 0.1, + "directionality": "bidi", + "hidden_act": "gelu", + "hidden_dropout_prob": 0.1, + "hidden_size": 768, + "initializer_range": 0.02, + "intermediate_size": 3072, + "max_position_embeddings": 512, + "num_attention_heads": 12, + "num_hidden_layers": 12, + "pooler_fc_size": 768, + "pooler_num_attention_heads": 12, + "pooler_num_fc_layers": 3, + "pooler_size_per_head": 128, + "pooler_type": "first_token_transform", + "type_vocab_size": 2, + "vocab_size": 21128, + "model_type": "bert" +} diff --git a/chinese_wwm_pytorch/pytorch_model.bin b/chinese_wwm_pytorch/pytorch_model.bin new file mode 100644 index 0000000000000000000000000000000000000000..a06d3a00017ab40bc72abfa991157484bd10898d --- /dev/null +++ b/chinese_wwm_pytorch/pytorch_model.bin @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:394eb16febe46f087c2789b2f0a23179191fb6cbea4d02f673a9f65220dbf2eb +size 411578458 diff --git a/chinese_wwm_pytorch/vocab.txt b/chinese_wwm_pytorch/vocab.txt new file mode 100644 index 0000000000000000000000000000000000000000..4cdc325c32998009e239422331c8ed97531b1cf9 --- /dev/null +++ b/chinese_wwm_pytorch/vocab.txt @@ -0,0 +1,21128 @@ +[PAD] +[unused1] +[unused2] +[unused3] +[unused4] +[unused5] +[unused6] +[unused7] +[unused8] +[unused9] +[unused10] +[unused11] +[unused12] +[unused13] +[unused14] +[unused15] +[unused16] +[unused17] +[unused18] +[unused19] +[unused20] +[unused21] +[unused22] +[unused23] +[unused24] +[unused25] +[unused26] +[unused27] +[unused28] +[unused29] +[unused30] +[unused31] +[unused32] +[unused33] +[unused34] +[unused35] +[unused36] +[unused37] +[unused38] +[unused39] +[unused40] +[unused41] +[unused42] +[unused43] +[unused44] +[unused45] +[unused46] +[unused47] +[unused48] +[unused49] +[unused50] +[unused51] +[unused52] +[unused53] +[unused54] +[unused55] +[unused56] +[unused57] +[unused58] +[unused59] +[unused60] +[unused61] +[unused62] +[unused63] +[unused64] +[unused65] +[unused66] +[unused67] +[unused68] +[unused69] +[unused70] +[unused71] +[unused72] +[unused73] +[unused74] +[unused75] +[unused76] +[unused77] +[unused78] +[unused79] +[unused80] +[unused81] +[unused82] +[unused83] +[unused84] +[unused85] +学术端正性 +理论深度 +创新性及论文价值 +研究结论 +研究方法 +逻辑性 +行文表达 +格式规范 +是否具备科研能力 +是否掌握基础(专业)知识 +论文工作量 +文献综述归纳总结情况 +选题角度与价值 +标题 +[UNK] +[CLS] +[SEP] +[MASK] + + +! +" +# +$ +% +& +' +( +) +* ++ +, +- +. +/ +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +: +; +< += +> +? +@ +[ +\ +] +^ +_ +a +b +c +d +e +f +g +h +i +j +k +l +m +n +o +p +q +r +s +t +u +v +w +x +y +z +{ +| +} +~ +£ +¤ +¥ +§ +© +« +® +° +± +² +³ +µ +· +¹ +º +» +¼ +× +ß +æ +÷ +ø +đ +ŋ +ɔ +ə +ɡ +ʰ +ˇ +ˈ +ˊ +ˋ +ˍ +ː +˙ +˚ +ˢ +α +β +γ +δ +ε +η +θ +ι +κ +λ +μ +ν +ο +π +ρ +ς +σ +τ +υ +φ +χ +ψ +ω +а +б +в +г +д +е +ж +з +и +к +л +м +н +о +п +р +с +т +у +ф +х +ц +ч +ш +ы +ь +я +і +ا +ب +ة +ت +د +ر +س +ع +ل +م +ن +ه +و +ي +۩ +ก +ง +น +ม +ย +ร +อ +า +เ +๑ +་ +ღ +ᄀ +ᄁ +ᄂ +ᄃ +ᄅ +ᄆ +ᄇ +ᄈ +ᄉ +ᄋ +ᄌ +ᄎ +ᄏ +ᄐ +ᄑ +ᄒ +ᅡ +ᅢ +ᅣ +ᅥ +ᅦ +ᅧ +ᅨ +ᅩ +ᅪ +ᅬ +ᅭ +ᅮ +ᅯ +ᅲ +ᅳ +ᅴ +ᅵ +ᆨ +ᆫ +ᆯ +ᆷ +ᆸ +ᆺ +ᆻ +ᆼ +ᗜ +ᵃ +ᵉ +ᵍ +ᵏ +ᵐ +ᵒ +ᵘ +‖ +„ +† +• +‥ +‧ +
 +‰ +′ +″ +‹ +› +※ +‿ +⁄ +ⁱ +⁺ +ⁿ +₁ +₂ +₃ +₄ +€ +℃ +№ +™ +ⅰ +ⅱ +ⅲ +ⅳ +ⅴ +← +↑ +→ +↓ +↔ +↗ +↘ +⇒ +∀ +− +∕ +∙ +√ +∞ +∟ +∠ +∣ +∥ +∩ +∮ +∶ +∼ +∽ +≈ +≒ +≡ +≤ +≥ +≦ +≧ +≪ +≫ +⊙ +⋅ +⋈ +⋯ +⌒ +① +② +③ +④ +⑤ +⑥ +⑦ +⑧ +⑨ +⑩ +⑴ +⑵ +⑶ +⑷ +⑸ +⒈ +⒉ +⒊ +⒋ +ⓒ +ⓔ +ⓘ +─ +━ +│ +┃ +┅ +┆ +┊ +┌ +└ +├ +┣ +═ +║ +╚ +╞ +╠ +╭ +╮ +╯ +╰ +╱ +╳ +▂ +▃ +▅ +▇ +█ +▉ +▋ +▌ +▍ +▎ +■ +□ +▪ +▫ +▬ +▲ +△ +▶ +► +▼ +▽ +◆ +◇ +○ +◎ +● +◕ +◠ +◢ +◤ +☀ +★ +☆ +☕ +☞ +☺ +☼ +♀ +♂ +♠ +♡ +♣ +♥ +♦ +♪ +♫ +♬ +✈ +✔ +✕ +✖ +✦ +✨ +✪ +✰ +✿ +❀ +❤ +➜ +➤ +⦿ +、 +。 +〃 +々 +〇 +〈 +〉 +《 +》 +「 +」 +『 +』 +【 +】 +〓 +〔 +〕 +〖 +〗 +〜 +〝 +〞 +ぁ +あ +ぃ +い +う +ぇ +え +お +か +き +く +け +こ +さ +し +す +せ +そ +た +ち +っ +つ +て +と +な +に +ぬ +ね +の +は +ひ +ふ +へ +ほ +ま +み +む +め +も +ゃ +や +ゅ +ゆ +ょ +よ +ら +り +る +れ +ろ +わ +を +ん +゜ +ゝ +ァ +ア +ィ +イ +ゥ +ウ +ェ +エ +ォ +オ +カ +キ +ク +ケ +コ +サ +シ +ス +セ +ソ +タ +チ +ッ +ツ +テ +ト +ナ +ニ +ヌ +ネ +ノ +ハ +ヒ +フ +ヘ +ホ +マ +ミ +ム +メ +モ +ャ +ヤ +ュ +ユ +ョ +ヨ +ラ +リ +ル +レ +ロ +ワ +ヲ +ン +ヶ +・ +ー +ヽ +ㄅ +ㄆ +ㄇ +ㄉ +ㄋ +ㄌ +ㄍ +ㄎ +ㄏ +ㄒ +ㄚ +ㄛ +ㄞ +ㄟ +ㄢ +ㄤ +ㄥ +ㄧ +ㄨ +ㆍ +㈦ +㊣ +㎡ +㗎 +一 +丁 +七 +万 +丈 +三 +上 +下 +不 +与 +丐 +丑 +专 +且 +丕 +世 +丘 +丙 +业 +丛 +东 +丝 +丞 +丟 +両 +丢 +两 +严 +並 +丧 +丨 +个 +丫 +中 +丰 +串 +临 +丶 +丸 +丹 +为 +主 +丼 +丽 +举 +丿 +乂 +乃 +久 +么 +义 +之 +乌 +乍 +乎 +乏 +乐 +乒 +乓 +乔 +乖 +乗 +乘 +乙 +乜 +九 +乞 +也 +习 +乡 +书 +乩 +买 +乱 +乳 +乾 +亀 +亂 +了 +予 +争 +事 +二 +于 +亏 +云 +互 +五 +井 +亘 +亙 +亚 +些 +亜 +亞 +亟 +亡 +亢 +交 +亥 +亦 +产 +亨 +亩 +享 +京 +亭 +亮 +亲 +亳 +亵 +人 +亿 +什 +仁 +仃 +仄 +仅 +仆 +仇 +今 +介 +仍 +从 +仏 +仑 +仓 +仔 +仕 +他 +仗 +付 +仙 +仝 +仞 +仟 +代 +令 +以 +仨 +仪 +们 +仮 +仰 +仲 +件 +价 +任 +份 +仿 +企 +伉 +伊 +伍 +伎 +伏 +伐 +休 +伕 +众 +优 +伙 +会 +伝 +伞 +伟 +传 +伢 +伤 +伦 +伪 +伫 +伯 +估 +伴 +伶 +伸 +伺 +似 +伽 +佃 +但 +佇 +佈 +位 +低 +住 +佐 +佑 +体 +佔 +何 +佗 +佘 +余 +佚 +佛 +作 +佝 +佞 +佟 +你 +佢 +佣 +佤 +佥 +佩 +佬 +佯 +佰 +佳 +併 +佶 +佻 +佼 +使 +侃 +侄 +來 +侈 +例 +侍 +侏 +侑 +侖 +侗 +供 +依 +侠 +価 +侣 +侥 +侦 +侧 +侨 +侬 +侮 +侯 +侵 +侶 +侷 +便 +係 +促 +俄 +俊 +俎 +俏 +俐 +俑 +俗 +俘 +俚 +保 +俞 +俟 +俠 +信 +俨 +俩 +俪 +俬 +俭 +修 +俯 +俱 +俳 +俸 +俺 +俾 +倆 +倉 +個 +倌 +倍 +倏 +們 +倒 +倔 +倖 +倘 +候 +倚 +倜 +借 +倡 +値 +倦 +倩 +倪 +倫 +倬 +倭 +倶 +债 +值 +倾 +偃 +假 +偈 +偉 +偌 +偎 +偏 +偕 +做 +停 +健 +側 +偵 +偶 +偷 +偻 +偽 +偿 +傀 +傅 +傍 +傑 +傘 +備 +傚 +傢 +傣 +傥 +储 +傩 +催 +傭 +傲 +傳 +債 +傷 +傻 +傾 +僅 +働 +像 +僑 +僕 +僖 +僚 +僥 +僧 +僭 +僮 +僱 +僵 +價 +僻 +儀 +儂 +億 +儆 +儉 +儋 +儒 +儕 +儘 +償 +儡 +優 +儲 +儷 +儼 +儿 +兀 +允 +元 +兄 +充 +兆 +兇 +先 +光 +克 +兌 +免 +児 +兑 +兒 +兔 +兖 +党 +兜 +兢 +入 +內 +全 +兩 +八 +公 +六 +兮 +兰 +共 +兲 +关 +兴 +兵 +其 +具 +典 +兹 +养 +兼 +兽 +冀 +内 +円 +冇 +冈 +冉 +冊 +册 +再 +冏 +冒 +冕 +冗 +写 +军 +农 +冠 +冢 +冤 +冥 +冨 +冪 +冬 +冯 +冰 +冲 +决 +况 +冶 +冷 +冻 +冼 +冽 +冾 +净 +凄 +准 +凇 +凈 +凉 +凋 +凌 +凍 +减 +凑 +凛 +凜 +凝 +几 +凡 +凤 +処 +凪 +凭 +凯 +凰 +凱 +凳 +凶 +凸 +凹 +出 +击 +函 +凿 +刀 +刁 +刃 +分 +切 +刈 +刊 +刍 +刎 +刑 +划 +列 +刘 +则 +刚 +创 +初 +删 +判 +別 +刨 +利 +刪 +别 +刮 +到 +制 +刷 +券 +刹 +刺 +刻 +刽 +剁 +剂 +剃 +則 +剉 +削 +剋 +剌 +前 +剎 +剐 +剑 +剔 +剖 +剛 +剜 +剝 +剣 +剤 +剥 +剧 +剩 +剪 +副 +割 +創 +剷 +剽 +剿 +劃 +劇 +劈 +劉 +劊 +劍 +劏 +劑 +力 +劝 +办 +功 +加 +务 +劣 +动 +助 +努 +劫 +劭 +励 +劲 +劳 +労 +劵 +効 +劾 +势 +勁 +勃 +勇 +勉 +勋 +勐 +勒 +動 +勖 +勘 +務 +勛 +勝 +勞 +募 +勢 +勤 +勧 +勳 +勵 +勸 +勺 +勻 +勾 +勿 +匀 +包 +匆 +匈 +匍 +匐 +匕 +化 +北 +匙 +匝 +匠 +匡 +匣 +匪 +匮 +匯 +匱 +匹 +区 +医 +匾 +匿 +區 +十 +千 +卅 +升 +午 +卉 +半 +卍 +华 +协 +卑 +卒 +卓 +協 +单 +卖 +南 +単 +博 +卜 +卞 +卟 +占 +卡 +卢 +卤 +卦 +卧 +卫 +卮 +卯 +印 +危 +即 +却 +卵 +卷 +卸 +卻 +卿 +厂 +厄 +厅 +历 +厉 +压 +厌 +厕 +厘 +厚 +厝 +原 +厢 +厥 +厦 +厨 +厩 +厭 +厮 +厲 +厳 +去 +县 +叁 +参 +參 +又 +叉 +及 +友 +双 +反 +収 +发 +叔 +取 +受 +变 +叙 +叛 +叟 +叠 +叡 +叢 +口 +古 +句 +另 +叨 +叩 +只 +叫 +召 +叭 +叮 +可 +台 +叱 +史 +右 +叵 +叶 +号 +司 +叹 +叻 +叼 +叽 +吁 +吃 +各 +吆 +合 +吉 +吊 +吋 +同 +名 +后 +吏 +吐 +向 +吒 +吓 +吕 +吖 +吗 +君 +吝 +吞 +吟 +吠 +吡 +否 +吧 +吨 +吩 +含 +听 +吭 +吮 +启 +吱 +吳 +吴 +吵 +吶 +吸 +吹 +吻 +吼 +吽 +吾 +呀 +呂 +呃 +呆 +呈 +告 +呋 +呎 +呐 +呓 +呕 +呗 +员 +呛 +呜 +呢 +呤 +呦 +周 +呱 +呲 +味 +呵 +呷 +呸 +呻 +呼 +命 +咀 +咁 +咂 +咄 +咆 +咋 +和 +咎 +咏 +咐 +咒 +咔 +咕 +咖 +咗 +咘 +咙 +咚 +咛 +咣 +咤 +咦 +咧 +咨 +咩 +咪 +咫 +咬 +咭 +咯 +咱 +咲 +咳 +咸 +咻 +咽 +咿 +哀 +品 +哂 +哄 +哆 +哇 +哈 +哉 +哋 +哌 +响 +哎 +哏 +哐 +哑 +哒 +哔 +哗 +哟 +員 +哥 +哦 +哧 +哨 +哩 +哪 +哭 +哮 +哲 +哺 +哼 +哽 +唁 +唄 +唆 +唇 +唉 +唏 +唐 +唑 +唔 +唠 +唤 +唧 +唬 +售 +唯 +唰 +唱 +唳 +唷 +唸 +唾 +啃 +啄 +商 +啉 +啊 +問 +啓 +啕 +啖 +啜 +啞 +啟 +啡 +啤 +啥 +啦 +啧 +啪 +啫 +啬 +啮 +啰 +啱 +啲 +啵 +啶 +啷 +啸 +啻 +啼 +啾 +喀 +喂 +喃 +善 +喆 +喇 +喉 +喊 +喋 +喎 +喏 +喔 +喘 +喙 +喚 +喜 +喝 +喟 +喧 +喪 +喫 +喬 +單 +喰 +喱 +喲 +喳 +喵 +営 +喷 +喹 +喺 +喻 +喽 +嗅 +嗆 +嗇 +嗎 +嗑 +嗒 +嗓 +嗔 +嗖 +嗚 +嗜 +嗝 +嗟 +嗡 +嗣 +嗤 +嗦 +嗨 +嗪 +嗬 +嗯 +嗰 +嗲 +嗳 +嗶 +嗷 +嗽 +嘀 +嘅 +嘆 +嘈 +嘉 +嘌 +嘍 +嘎 +嘔 +嘖 +嘗 +嘘 +嘚 +嘛 +嘜 +嘞 +嘟 +嘢 +嘣 +嘤 +嘧 +嘩 +嘭 +嘮 +嘯 +嘰 +嘱 +嘲 +嘴 +嘶 +嘸 +嘹 +嘻 +嘿 +噁 +噌 +噎 +噓 +噔 +噗 +噙 +噜 +噠 +噢 +噤 +器 +噩 +噪 +噬 +噱 +噴 +噶 +噸 +噹 +噻 +噼 +嚀 +嚇 +嚎 +嚏 +嚐 +嚓 +嚕 +嚟 +嚣 +嚥 +嚨 +嚮 +嚴 +嚷 +嚼 +囂 +囉 +囊 +囍 +囑 +囔 +囗 +囚 +四 +囝 +回 +囟 +因 +囡 +团 +団 +囤 +囧 +囪 +囫 +园 +困 +囱 +囲 +図 +围 +囹 +固 +国 +图 +囿 +圃 +圄 +圆 +圈 +國 +圍 +圏 +園 +圓 +圖 +團 +圜 +土 +圣 +圧 +在 +圩 +圭 +地 +圳 +场 +圻 +圾 +址 +坂 +均 +坊 +坍 +坎 +坏 +坐 +坑 +块 +坚 +坛 +坝 +坞 +坟 +坠 +坡 +坤 +坦 +坨 +坪 +坯 +坳 +坵 +坷 +垂 +垃 +垄 +型 +垒 +垚 +垛 +垠 +垢 +垣 +垦 +垩 +垫 +垭 +垮 +垵 +埂 +埃 +埋 +城 +埔 +埕 +埗 +域 +埠 +埤 +埵 +執 +埸 +培 +基 +埼 +堀 +堂 +堃 +堅 +堆 +堇 +堑 +堕 +堙 +堡 +堤 +堪 +堯 +堰 +報 +場 +堵 +堺 +堿 +塊 +塌 +塑 +塔 +塗 +塘 +塚 +塞 +塢 +塩 +填 +塬 +塭 +塵 +塾 +墀 +境 +墅 +墉 +墊 +墒 +墓 +増 +墘 +墙 +墜 +增 +墟 +墨 +墩 +墮 +墳 +墻 +墾 +壁 +壅 +壆 +壇 +壊 +壑 +壓 +壕 +壘 +壞 +壟 +壢 +壤 +壩 +士 +壬 +壮 +壯 +声 +売 +壳 +壶 +壹 +壺 +壽 +处 +备 +変 +复 +夏 +夔 +夕 +外 +夙 +多 +夜 +够 +夠 +夢 +夥 +大 +天 +太 +夫 +夭 +央 +夯 +失 +头 +夷 +夸 +夹 +夺 +夾 +奂 +奄 +奇 +奈 +奉 +奋 +奎 +奏 +奐 +契 +奔 +奕 +奖 +套 +奘 +奚 +奠 +奢 +奥 +奧 +奪 +奬 +奮 +女 +奴 +奶 +奸 +她 +好 +如 +妃 +妄 +妆 +妇 +妈 +妊 +妍 +妒 +妓 +妖 +妘 +妙 +妝 +妞 +妣 +妤 +妥 +妨 +妩 +妪 +妮 +妲 +妳 +妹 +妻 +妾 +姆 +姉 +姊 +始 +姍 +姐 +姑 +姒 +姓 +委 +姗 +姚 +姜 +姝 +姣 +姥 +姦 +姨 +姪 +姫 +姬 +姹 +姻 +姿 +威 +娃 +娄 +娅 +娆 +娇 +娉 +娑 +娓 +娘 +娛 +娜 +娟 +娠 +娣 +娥 +娩 +娱 +娲 +娴 +娶 +娼 +婀 +婁 +婆 +婉 +婊 +婕 +婚 +婢 +婦 +婧 +婪 +婭 +婴 +婵 +婶 +婷 +婺 +婿 +媒 +媚 +媛 +媞 +媧 +媲 +媳 +媽 +媾 +嫁 +嫂 +嫉 +嫌 +嫑 +嫔 +嫖 +嫘 +嫚 +嫡 +嫣 +嫦 +嫩 +嫲 +嫵 +嫻 +嬅 +嬉 +嬌 +嬗 +嬛 +嬢 +嬤 +嬪 +嬰 +嬴 +嬷 +嬸 +嬿 +孀 +孃 +子 +孑 +孔 +孕 +孖 +字 +存 +孙 +孚 +孛 +孜 +孝 +孟 +孢 +季 +孤 +学 +孩 +孪 +孫 +孬 +孰 +孱 +孳 +孵 +學 +孺 +孽 +孿 +宁 +它 +宅 +宇 +守 +安 +宋 +完 +宏 +宓 +宕 +宗 +官 +宙 +定 +宛 +宜 +宝 +实 +実 +宠 +审 +客 +宣 +室 +宥 +宦 +宪 +宫 +宮 +宰 +害 +宴 +宵 +家 +宸 +容 +宽 +宾 +宿 +寂 +寄 +寅 +密 +寇 +富 +寐 +寒 +寓 +寛 +寝 +寞 +察 +寡 +寢 +寥 +實 +寧 +寨 +審 +寫 +寬 +寮 +寰 +寵 +寶 +寸 +对 +寺 +寻 +导 +対 +寿 +封 +専 +射 +将 +將 +專 +尉 +尊 +尋 +對 +導 +小 +少 +尔 +尕 +尖 +尘 +尚 +尝 +尤 +尧 +尬 +就 +尴 +尷 +尸 +尹 +尺 +尻 +尼 +尽 +尾 +尿 +局 +屁 +层 +屄 +居 +屆 +屈 +屉 +届 +屋 +屌 +屍 +屎 +屏 +屐 +屑 +展 +屜 +属 +屠 +屡 +屢 +層 +履 +屬 +屯 +山 +屹 +屿 +岀 +岁 +岂 +岌 +岐 +岑 +岔 +岖 +岗 +岘 +岙 +岚 +岛 +岡 +岩 +岫 +岬 +岭 +岱 +岳 +岷 +岸 +峇 +峋 +峒 +峙 +峡 +峤 +峥 +峦 +峨 +峪 +峭 +峯 +峰 +峴 +島 +峻 +峽 +崁 +崂 +崆 +崇 +崎 +崑 +崔 +崖 +崗 +崙 +崛 +崧 +崩 +崭 +崴 +崽 +嵇 +嵊 +嵋 +嵌 +嵐 +嵘 +嵩 +嵬 +嵯 +嶂 +嶄 +嶇 +嶋 +嶙 +嶺 +嶼 +嶽 +巅 +巍 +巒 +巔 +巖 +川 +州 +巡 +巢 +工 +左 +巧 +巨 +巩 +巫 +差 +己 +已 +巳 +巴 +巷 +巻 +巽 +巾 +巿 +币 +市 +布 +帅 +帆 +师 +希 +帐 +帑 +帕 +帖 +帘 +帚 +帛 +帜 +帝 +帥 +带 +帧 +師 +席 +帮 +帯 +帰 +帳 +帶 +帷 +常 +帼 +帽 +幀 +幂 +幄 +幅 +幌 +幔 +幕 +幟 +幡 +幢 +幣 +幫 +干 +平 +年 +并 +幸 +幹 +幺 +幻 +幼 +幽 +幾 +广 +庁 +広 +庄 +庆 +庇 +床 +序 +庐 +库 +应 +底 +庖 +店 +庙 +庚 +府 +庞 +废 +庠 +度 +座 +庫 +庭 +庵 +庶 +康 +庸 +庹 +庾 +廁 +廂 +廃 +廈 +廉 +廊 +廓 +廖 +廚 +廝 +廟 +廠 +廢 +廣 +廬 +廳 +延 +廷 +建 +廿 +开 +弁 +异 +弃 +弄 +弈 +弊 +弋 +式 +弑 +弒 +弓 +弔 +引 +弗 +弘 +弛 +弟 +张 +弥 +弦 +弧 +弩 +弭 +弯 +弱 +張 +強 +弹 +强 +弼 +弾 +彅 +彆 +彈 +彌 +彎 +归 +当 +录 +彗 +彙 +彝 +形 +彤 +彥 +彦 +彧 +彩 +彪 +彫 +彬 +彭 +彰 +影 +彷 +役 +彻 +彼 +彿 +往 +征 +径 +待 +徇 +很 +徉 +徊 +律 +後 +徐 +徑 +徒 +従 +徕 +得 +徘 +徙 +徜 +從 +徠 +御 +徨 +復 +循 +徬 +微 +徳 +徴 +徵 +德 +徹 +徼 +徽 +心 +必 +忆 +忌 +忍 +忏 +忐 +忑 +忒 +忖 +志 +忘 +忙 +応 +忠 +忡 +忤 +忧 +忪 +快 +忱 +念 +忻 +忽 +忿 +怀 +态 +怂 +怅 +怆 +怎 +怏 +怒 +怔 +怕 +怖 +怙 +怜 +思 +怠 +怡 +急 +怦 +性 +怨 +怪 +怯 +怵 +总 +怼 +恁 +恃 +恆 +恋 +恍 +恐 +恒 +恕 +恙 +恚 +恢 +恣 +恤 +恥 +恨 +恩 +恪 +恫 +恬 +恭 +息 +恰 +恳 +恵 +恶 +恸 +恺 +恻 +恼 +恿 +悄 +悅 +悉 +悌 +悍 +悔 +悖 +悚 +悟 +悠 +患 +悦 +您 +悩 +悪 +悬 +悯 +悱 +悲 +悴 +悵 +悶 +悸 +悻 +悼 +悽 +情 +惆 +惇 +惊 +惋 +惑 +惕 +惘 +惚 +惜 +惟 +惠 +惡 +惦 +惧 +惨 +惩 +惫 +惬 +惭 +惮 +惯 +惰 +惱 +想 +惴 +惶 +惹 +惺 +愁 +愆 +愈 +愉 +愍 +意 +愕 +愚 +愛 +愜 +感 +愣 +愤 +愧 +愫 +愷 +愿 +慄 +慈 +態 +慌 +慎 +慑 +慕 +慘 +慚 +慟 +慢 +慣 +慧 +慨 +慫 +慮 +慰 +慳 +慵 +慶 +慷 +慾 +憂 +憊 +憋 +憎 +憐 +憑 +憔 +憚 +憤 +憧 +憨 +憩 +憫 +憬 +憲 +憶 +憾 +懂 +懇 +懈 +應 +懊 +懋 +懑 +懒 +懦 +懲 +懵 +懶 +懷 +懸 +懺 +懼 +懾 +懿 +戀 +戈 +戊 +戌 +戍 +戎 +戏 +成 +我 +戒 +戕 +或 +战 +戚 +戛 +戟 +戡 +戦 +截 +戬 +戮 +戰 +戲 +戳 +戴 +戶 +户 +戸 +戻 +戾 +房 +所 +扁 +扇 +扈 +扉 +手 +才 +扎 +扑 +扒 +打 +扔 +払 +托 +扛 +扣 +扦 +执 +扩 +扪 +扫 +扬 +扭 +扮 +扯 +扰 +扱 +扳 +扶 +批 +扼 +找 +承 +技 +抄 +抉 +把 +抑 +抒 +抓 +投 +抖 +抗 +折 +抚 +抛 +抜 +択 +抟 +抠 +抡 +抢 +护 +报 +抨 +披 +抬 +抱 +抵 +抹 +押 +抽 +抿 +拂 +拄 +担 +拆 +拇 +拈 +拉 +拋 +拌 +拍 +拎 +拐 +拒 +拓 +拔 +拖 +拗 +拘 +拙 +拚 +招 +拜 +拟 +拡 +拢 +拣 +拥 +拦 +拧 +拨 +择 +括 +拭 +拮 +拯 +拱 +拳 +拴 +拷 +拼 +拽 +拾 +拿 +持 +挂 +指 +挈 +按 +挎 +挑 +挖 +挙 +挚 +挛 +挝 +挞 +挟 +挠 +挡 +挣 +挤 +挥 +挨 +挪 +挫 +振 +挲 +挹 +挺 +挽 +挾 +捂 +捅 +捆 +捉 +捋 +捌 +捍 +捎 +捏 +捐 +捕 +捞 +损 +捡 +换 +捣 +捧 +捨 +捩 +据 +捱 +捲 +捶 +捷 +捺 +捻 +掀 +掂 +掃 +掇 +授 +掉 +掌 +掏 +掐 +排 +掖 +掘 +掙 +掛 +掠 +採 +探 +掣 +接 +控 +推 +掩 +措 +掬 +掰 +掲 +掳 +掴 +掷 +掸 +掺 +揀 +揃 +揄 +揆 +揉 +揍 +描 +提 +插 +揖 +揚 +換 +握 +揣 +揩 +揪 +揭 +揮 +援 +揶 +揸 +揹 +揽 +搀 +搁 +搂 +搅 +損 +搏 +搐 +搓 +搔 +搖 +搗 +搜 +搞 +搡 +搪 +搬 +搭 +搵 +搶 +携 +搽 +摀 +摁 +摄 +摆 +摇 +摈 +摊 +摒 +摔 +摘 +摞 +摟 +摧 +摩 +摯 +摳 +摸 +摹 +摺 +摻 +撂 +撃 +撅 +撇 +撈 +撐 +撑 +撒 +撓 +撕 +撚 +撞 +撤 +撥 +撩 +撫 +撬 +播 +撮 +撰 +撲 +撵 +撷 +撸 +撻 +撼 +撿 +擀 +擁 +擂 +擄 +擅 +擇 +擊 +擋 +操 +擎 +擒 +擔 +擘 +據 +擞 +擠 +擡 +擢 +擦 +擬 +擰 +擱 +擲 +擴 +擷 +擺 +擼 +擾 +攀 +攏 +攒 +攔 +攘 +攙 +攜 +攝 +攞 +攢 +攣 +攤 +攥 +攪 +攫 +攬 +支 +收 +攸 +改 +攻 +放 +政 +故 +效 +敌 +敍 +敎 +敏 +救 +敕 +敖 +敗 +敘 +教 +敛 +敝 +敞 +敢 +散 +敦 +敬 +数 +敲 +整 +敵 +敷 +數 +斂 +斃 +文 +斋 +斌 +斎 +斐 +斑 +斓 +斗 +料 +斛 +斜 +斟 +斡 +斤 +斥 +斧 +斩 +斫 +斬 +断 +斯 +新 +斷 +方 +於 +施 +旁 +旃 +旅 +旋 +旌 +旎 +族 +旖 +旗 +无 +既 +日 +旦 +旧 +旨 +早 +旬 +旭 +旮 +旱 +时 +旷 +旺 +旻 +昀 +昂 +昆 +昇 +昉 +昊 +昌 +明 +昏 +易 +昔 +昕 +昙 +星 +映 +春 +昧 +昨 +昭 +是 +昱 +昴 +昵 +昶 +昼 +显 +晁 +時 +晃 +晉 +晋 +晌 +晏 +晒 +晓 +晔 +晕 +晖 +晗 +晚 +晝 +晞 +晟 +晤 +晦 +晨 +晩 +普 +景 +晰 +晴 +晶 +晷 +智 +晾 +暂 +暄 +暇 +暈 +暉 +暌 +暐 +暑 +暖 +暗 +暝 +暢 +暧 +暨 +暫 +暮 +暱 +暴 +暸 +暹 +曄 +曆 +曇 +曉 +曖 +曙 +曜 +曝 +曠 +曦 +曬 +曰 +曲 +曳 +更 +書 +曹 +曼 +曾 +替 +最 +會 +月 +有 +朋 +服 +朐 +朔 +朕 +朗 +望 +朝 +期 +朦 +朧 +木 +未 +末 +本 +札 +朮 +术 +朱 +朴 +朵 +机 +朽 +杀 +杂 +权 +杆 +杈 +杉 +李 +杏 +材 +村 +杓 +杖 +杜 +杞 +束 +杠 +条 +来 +杨 +杭 +杯 +杰 +東 +杳 +杵 +杷 +杼 +松 +板 +极 +构 +枇 +枉 +枋 +析 +枕 +林 +枚 +果 +枝 +枢 +枣 +枪 +枫 +枭 +枯 +枰 +枱 +枳 +架 +枷 +枸 +柄 +柏 +某 +柑 +柒 +染 +柔 +柘 +柚 +柜 +柞 +柠 +柢 +查 +柩 +柬 +柯 +柱 +柳 +柴 +柵 +査 +柿 +栀 +栃 +栄 +栅 +标 +栈 +栉 +栋 +栎 +栏 +树 +栓 +栖 +栗 +校 +栩 +株 +样 +核 +根 +格 +栽 +栾 +桀 +桁 +桂 +桃 +桅 +框 +案 +桉 +桌 +桎 +桐 +桑 +桓 +桔 +桜 +桠 +桡 +桢 +档 +桥 +桦 +桧 +桨 +桩 +桶 +桿 +梁 +梅 +梆 +梏 +梓 +梗 +條 +梟 +梢 +梦 +梧 +梨 +梭 +梯 +械 +梳 +梵 +梶 +检 +棂 +棄 +棉 +棋 +棍 +棒 +棕 +棗 +棘 +棚 +棟 +棠 +棣 +棧 +森 +棱 +棲 +棵 +棹 +棺 +椁 +椅 +椋 +植 +椎 +椒 +検 +椪 +椭 +椰 +椹 +椽 +椿 +楂 +楊 +楓 +楔 +楚 +楝 +楞 +楠 +楣 +楨 +楫 +業 +楮 +極 +楷 +楸 +楹 +楼 +楽 +概 +榄 +榆 +榈 +榉 +榔 +榕 +榖 +榛 +榜 +榨 +榫 +榭 +榮 +榱 +榴 +榷 +榻 +槁 +槃 +構 +槌 +槍 +槎 +槐 +槓 +様 +槛 +槟 +槤 +槭 +槲 +槳 +槻 +槽 +槿 +樁 +樂 +樊 +樑 +樓 +標 +樞 +樟 +模 +樣 +権 +横 +樫 +樯 +樱 +樵 +樸 +樹 +樺 +樽 +樾 +橄 +橇 +橋 +橐 +橘 +橙 +機 +橡 +橢 +橫 +橱 +橹 +橼 +檀 +檄 +檎 +檐 +檔 +檗 +檜 +檢 +檬 +檯 +檳 +檸 +檻 +櫃 +櫚 +櫛 +櫥 +櫸 +櫻 +欄 +權 +欒 +欖 +欠 +次 +欢 +欣 +欧 +欲 +欸 +欺 +欽 +款 +歆 +歇 +歉 +歌 +歎 +歐 +歓 +歙 +歛 +歡 +止 +正 +此 +步 +武 +歧 +歩 +歪 +歯 +歲 +歳 +歴 +歷 +歸 +歹 +死 +歼 +殁 +殃 +殆 +殇 +殉 +殊 +残 +殒 +殓 +殖 +殘 +殞 +殡 +殤 +殭 +殯 +殲 +殴 +段 +殷 +殺 +殼 +殿 +毀 +毁 +毂 +毅 +毆 +毋 +母 +毎 +每 +毒 +毓 +比 +毕 +毗 +毘 +毙 +毛 +毡 +毫 +毯 +毽 +氈 +氏 +氐 +民 +氓 +气 +氖 +気 +氙 +氛 +氟 +氡 +氢 +氣 +氤 +氦 +氧 +氨 +氪 +氫 +氮 +氯 +氰 +氲 +水 +氷 +永 +氹 +氾 +汀 +汁 +求 +汆 +汇 +汉 +汎 +汐 +汕 +汗 +汙 +汛 +汝 +汞 +江 +池 +污 +汤 +汨 +汩 +汪 +汰 +汲 +汴 +汶 +汹 +決 +汽 +汾 +沁 +沂 +沃 +沅 +沈 +沉 +沌 +沏 +沐 +沒 +沓 +沖 +沙 +沛 +沟 +没 +沢 +沣 +沥 +沦 +沧 +沪 +沫 +沭 +沮 +沱 +河 +沸 +油 +治 +沼 +沽 +沾 +沿 +況 +泄 +泉 +泊 +泌 +泓 +法 +泗 +泛 +泞 +泠 +泡 +波 +泣 +泥 +注 +泪 +泫 +泮 +泯 +泰 +泱 +泳 +泵 +泷 +泸 +泻 +泼 +泽 +泾 +洁 +洄 +洋 +洒 +洗 +洙 +洛 +洞 +津 +洩 +洪 +洮 +洱 +洲 +洵 +洶 +洸 +洹 +活 +洼 +洽 +派 +流 +浃 +浄 +浅 +浆 +浇 +浊 +测 +济 +浏 +浑 +浒 +浓 +浔 +浙 +浚 +浜 +浣 +浦 +浩 +浪 +浬 +浮 +浯 +浴 +海 +浸 +涂 +涅 +涇 +消 +涉 +涌 +涎 +涓 +涔 +涕 +涙 +涛 +涝 +涞 +涟 +涠 +涡 +涣 +涤 +润 +涧 +涨 +涩 +涪 +涮 +涯 +液 +涵 +涸 +涼 +涿 +淀 +淄 +淅 +淆 +淇 +淋 +淌 +淑 +淒 +淖 +淘 +淙 +淚 +淞 +淡 +淤 +淦 +淨 +淩 +淪 +淫 +淬 +淮 +深 +淳 +淵 +混 +淹 +淺 +添 +淼 +清 +済 +渉 +渊 +渋 +渍 +渎 +渐 +渔 +渗 +渙 +渚 +減 +渝 +渠 +渡 +渣 +渤 +渥 +渦 +温 +測 +渭 +港 +渲 +渴 +游 +渺 +渾 +湃 +湄 +湊 +湍 +湖 +湘 +湛 +湟 +湧 +湫 +湮 +湯 +湳 +湾 +湿 +満 +溃 +溅 +溉 +溏 +源 +準 +溜 +溝 +溟 +溢 +溥 +溧 +溪 +溫 +溯 +溱 +溴 +溶 +溺 +溼 +滁 +滂 +滄 +滅 +滇 +滋 +滌 +滑 +滓 +滔 +滕 +滙 +滚 +滝 +滞 +滟 +满 +滢 +滤 +滥 +滦 +滨 +滩 +滬 +滯 +滲 +滴 +滷 +滸 +滾 +滿 +漁 +漂 +漆 +漉 +漏 +漓 +演 +漕 +漠 +漢 +漣 +漩 +漪 +漫 +漬 +漯 +漱 +漲 +漳 +漸 +漾 +漿 +潆 +潇 +潋 +潍 +潑 +潔 +潘 +潛 +潜 +潞 +潟 +潢 +潤 +潦 +潧 +潭 +潮 +潰 +潴 +潸 +潺 +潼 +澀 +澄 +澆 +澈 +澍 +澎 +澗 +澜 +澡 +澤 +澧 +澱 +澳 +澹 +激 +濁 +濂 +濃 +濑 +濒 +濕 +濘 +濛 +濟 +濠 +濡 +濤 +濫 +濬 +濮 +濯 +濱 +濺 +濾 +瀅 +瀆 +瀉 +瀋 +瀏 +瀑 +瀕 +瀘 +瀚 +瀛 +瀝 +瀞 +瀟 +瀧 +瀨 +瀬 +瀰 +瀾 +灌 +灏 +灑 +灘 +灝 +灞 +灣 +火 +灬 +灭 +灯 +灰 +灵 +灶 +灸 +灼 +災 +灾 +灿 +炀 +炁 +炅 +炉 +炊 +炎 +炒 +炔 +炕 +炖 +炙 +炜 +炫 +炬 +炭 +炮 +炯 +炳 +炷 +炸 +点 +為 +炼 +炽 +烁 +烂 +烃 +烈 +烊 +烏 +烘 +烙 +烛 +烟 +烤 +烦 +烧 +烨 +烩 +烫 +烬 +热 +烯 +烷 +烹 +烽 +焉 +焊 +焕 +焖 +焗 +焘 +焙 +焚 +焜 +無 +焦 +焯 +焰 +焱 +然 +焼 +煅 +煉 +煊 +煌 +煎 +煒 +煖 +煙 +煜 +煞 +煤 +煥 +煦 +照 +煨 +煩 +煮 +煲 +煸 +煽 +熄 +熊 +熏 +熒 +熔 +熙 +熟 +熠 +熨 +熬 +熱 +熵 +熹 +熾 +燁 +燃 +燄 +燈 +燉 +燊 +燎 +燒 +燔 +燕 +燙 +燜 +營 +燥 +燦 +燧 +燭 +燮 +燴 +燻 +燼 +燿 +爆 +爍 +爐 +爛 +爪 +爬 +爭 +爰 +爱 +爲 +爵 +父 +爷 +爸 +爹 +爺 +爻 +爽 +爾 +牆 +片 +版 +牌 +牍 +牒 +牙 +牛 +牝 +牟 +牠 +牡 +牢 +牦 +牧 +物 +牯 +牲 +牴 +牵 +特 +牺 +牽 +犀 +犁 +犄 +犊 +犍 +犒 +犢 +犧 +犬 +犯 +状 +犷 +犸 +犹 +狀 +狂 +狄 +狈 +狎 +狐 +狒 +狗 +狙 +狞 +狠 +狡 +狩 +独 +狭 +狮 +狰 +狱 +狸 +狹 +狼 +狽 +猎 +猕 +猖 +猗 +猙 +猛 +猜 +猝 +猥 +猩 +猪 +猫 +猬 +献 +猴 +猶 +猷 +猾 +猿 +獄 +獅 +獎 +獐 +獒 +獗 +獠 +獣 +獨 +獭 +獰 +獲 +獵 +獷 +獸 +獺 +獻 +獼 +獾 +玄 +率 +玉 +王 +玑 +玖 +玛 +玟 +玠 +玥 +玩 +玫 +玮 +环 +现 +玲 +玳 +玷 +玺 +玻 +珀 +珂 +珅 +珈 +珉 +珊 +珍 +珏 +珐 +珑 +珙 +珞 +珠 +珣 +珥 +珩 +珪 +班 +珮 +珲 +珺 +現 +球 +琅 +理 +琇 +琉 +琊 +琍 +琏 +琐 +琛 +琢 +琥 +琦 +琨 +琪 +琬 +琮 +琰 +琲 +琳 +琴 +琵 +琶 +琺 +琼 +瑀 +瑁 +瑄 +瑋 +瑕 +瑗 +瑙 +瑚 +瑛 +瑜 +瑞 +瑟 +瑠 +瑣 +瑤 +瑩 +瑪 +瑯 +瑰 +瑶 +瑾 +璀 +璁 +璃 +璇 +璉 +璋 +璎 +璐 +璜 +璞 +璟 +璧 +璨 +環 +璽 +璿 +瓊 +瓏 +瓒 +瓜 +瓢 +瓣 +瓤 +瓦 +瓮 +瓯 +瓴 +瓶 +瓷 +甄 +甌 +甕 +甘 +甙 +甚 +甜 +生 +產 +産 +甥 +甦 +用 +甩 +甫 +甬 +甭 +甯 +田 +由 +甲 +申 +电 +男 +甸 +町 +画 +甾 +畀 +畅 +界 +畏 +畑 +畔 +留 +畜 +畝 +畢 +略 +畦 +番 +畫 +異 +畲 +畳 +畴 +當 +畸 +畹 +畿 +疆 +疇 +疊 +疏 +疑 +疔 +疖 +疗 +疙 +疚 +疝 +疟 +疡 +疣 +疤 +疥 +疫 +疮 +疯 +疱 +疲 +疳 +疵 +疸 +疹 +疼 +疽 +疾 +痂 +病 +症 +痈 +痉 +痊 +痍 +痒 +痔 +痕 +痘 +痙 +痛 +痞 +痠 +痢 +痣 +痤 +痧 +痨 +痪 +痫 +痰 +痱 +痴 +痹 +痺 +痼 +痿 +瘀 +瘁 +瘋 +瘍 +瘓 +瘘 +瘙 +瘟 +瘠 +瘡 +瘢 +瘤 +瘦 +瘧 +瘩 +瘪 +瘫 +瘴 +瘸 +瘾 +療 +癇 +癌 +癒 +癖 +癜 +癞 +癡 +癢 +癣 +癥 +癫 +癬 +癮 +癱 +癲 +癸 +発 +登 +發 +白 +百 +皂 +的 +皆 +皇 +皈 +皋 +皎 +皑 +皓 +皖 +皙 +皚 +皮 +皰 +皱 +皴 +皺 +皿 +盂 +盃 +盅 +盆 +盈 +益 +盎 +盏 +盐 +监 +盒 +盔 +盖 +盗 +盘 +盛 +盜 +盞 +盟 +盡 +監 +盤 +盥 +盧 +盪 +目 +盯 +盱 +盲 +直 +相 +盹 +盼 +盾 +省 +眈 +眉 +看 +県 +眙 +眞 +真 +眠 +眦 +眨 +眩 +眯 +眶 +眷 +眸 +眺 +眼 +眾 +着 +睁 +睇 +睏 +睐 +睑 +睛 +睜 +睞 +睡 +睢 +督 +睥 +睦 +睨 +睪 +睫 +睬 +睹 +睽 +睾 +睿 +瞄 +瞅 +瞇 +瞋 +瞌 +瞎 +瞑 +瞒 +瞓 +瞞 +瞟 +瞠 +瞥 +瞧 +瞩 +瞪 +瞬 +瞭 +瞰 +瞳 +瞻 +瞼 +瞿 +矇 +矍 +矗 +矚 +矛 +矜 +矢 +矣 +知 +矩 +矫 +短 +矮 +矯 +石 +矶 +矽 +矾 +矿 +码 +砂 +砌 +砍 +砒 +研 +砖 +砗 +砚 +砝 +砣 +砥 +砧 +砭 +砰 +砲 +破 +砷 +砸 +砺 +砼 +砾 +础 +硅 +硐 +硒 +硕 +硝 +硫 +硬 +确 +硯 +硼 +碁 +碇 +碉 +碌 +碍 +碎 +碑 +碓 +碗 +碘 +碚 +碛 +碟 +碣 +碧 +碩 +碰 +碱 +碳 +碴 +確 +碼 +碾 +磁 +磅 +磊 +磋 +磐 +磕 +磚 +磡 +磨 +磬 +磯 +磲 +磷 +磺 +礁 +礎 +礙 +礡 +礦 +礪 +礫 +礴 +示 +礼 +社 +祀 +祁 +祂 +祇 +祈 +祉 +祎 +祐 +祕 +祖 +祗 +祚 +祛 +祜 +祝 +神 +祟 +祠 +祢 +祥 +票 +祭 +祯 +祷 +祸 +祺 +祿 +禀 +禁 +禄 +禅 +禍 +禎 +福 +禛 +禦 +禧 +禪 +禮 +禱 +禹 +禺 +离 +禽 +禾 +禿 +秀 +私 +秃 +秆 +秉 +秋 +种 +科 +秒 +秘 +租 +秣 +秤 +秦 +秧 +秩 +秭 +积 +称 +秸 +移 +秽 +稀 +稅 +程 +稍 +税 +稔 +稗 +稚 +稜 +稞 +稟 +稠 +稣 +種 +稱 +稲 +稳 +稷 +稹 +稻 +稼 +稽 +稿 +穀 +穂 +穆 +穌 +積 +穎 +穗 +穢 +穩 +穫 +穴 +究 +穷 +穹 +空 +穿 +突 +窃 +窄 +窈 +窍 +窑 +窒 +窓 +窕 +窖 +窗 +窘 +窜 +窝 +窟 +窠 +窥 +窦 +窨 +窩 +窪 +窮 +窯 +窺 +窿 +竄 +竅 +竇 +竊 +立 +竖 +站 +竜 +竞 +竟 +章 +竣 +童 +竭 +端 +競 +竹 +竺 +竽 +竿 +笃 +笆 +笈 +笋 +笏 +笑 +笔 +笙 +笛 +笞 +笠 +符 +笨 +第 +笹 +笺 +笼 +筆 +等 +筊 +筋 +筍 +筏 +筐 +筑 +筒 +答 +策 +筛 +筝 +筠 +筱 +筲 +筵 +筷 +筹 +签 +简 +箇 +箋 +箍 +箏 +箐 +箔 +箕 +算 +箝 +管 +箩 +箫 +箭 +箱 +箴 +箸 +節 +篁 +範 +篆 +篇 +築 +篑 +篓 +篙 +篝 +篠 +篡 +篤 +篩 +篪 +篮 +篱 +篷 +簇 +簌 +簍 +簡 +簦 +簧 +簪 +簫 +簷 +簸 +簽 +簾 +簿 +籁 +籃 +籌 +籍 +籐 +籟 +籠 +籤 +籬 +籮 +籲 +米 +类 +籼 +籽 +粄 +粉 +粑 +粒 +粕 +粗 +粘 +粟 +粤 +粥 +粧 +粪 +粮 +粱 +粲 +粳 +粵 +粹 +粼 +粽 +精 +粿 +糅 +糊 +糍 +糕 +糖 +糗 +糙 +糜 +糞 +糟 +糠 +糧 +糬 +糯 +糰 +糸 +系 +糾 +紀 +紂 +約 +紅 +紉 +紊 +紋 +納 +紐 +紓 +純 +紗 +紘 +紙 +級 +紛 +紜 +素 +紡 +索 +紧 +紫 +紮 +累 +細 +紳 +紹 +紺 +終 +絃 +組 +絆 +経 +結 +絕 +絞 +絡 +絢 +給 +絨 +絮 +統 +絲 +絳 +絵 +絶 +絹 +綁 +綏 +綑 +經 +継 +続 +綜 +綠 +綢 +綦 +綫 +綬 +維 +綱 +網 +綴 +綵 +綸 +綺 +綻 +綽 +綾 +綿 +緊 +緋 +総 +緑 +緒 +緘 +線 +緝 +緞 +締 +緣 +編 +緩 +緬 +緯 +練 +緹 +緻 +縁 +縄 +縈 +縛 +縝 +縣 +縫 +縮 +縱 +縴 +縷 +總 +績 +繁 +繃 +繆 +繇 +繋 +織 +繕 +繚 +繞 +繡 +繩 +繪 +繫 +繭 +繳 +繹 +繼 +繽 +纂 +續 +纍 +纏 +纓 +纔 +纖 +纜 +纠 +红 +纣 +纤 +约 +级 +纨 +纪 +纫 +纬 +纭 +纯 +纰 +纱 +纲 +纳 +纵 +纶 +纷 +纸 +纹 +纺 +纽 +纾 +线 +绀 +练 +组 +绅 +细 +织 +终 +绊 +绍 +绎 +经 +绑 +绒 +结 +绔 +绕 +绘 +给 +绚 +绛 +络 +绝 +绞 +统 +绡 +绢 +绣 +绥 +绦 +继 +绩 +绪 +绫 +续 +绮 +绯 +绰 +绳 +维 +绵 +绶 +绷 +绸 +绻 +综 +绽 +绾 +绿 +缀 +缄 +缅 +缆 +缇 +缈 +缉 +缎 +缓 +缔 +缕 +编 +缘 +缙 +缚 +缜 +缝 +缠 +缢 +缤 +缥 +缨 +缩 +缪 +缭 +缮 +缰 +缱 +缴 +缸 +缺 +缽 +罂 +罄 +罌 +罐 +网 +罔 +罕 +罗 +罚 +罡 +罢 +罩 +罪 +置 +罰 +署 +罵 +罷 +罹 +羁 +羅 +羈 +羊 +羌 +美 +羔 +羚 +羞 +羟 +羡 +羣 +群 +羥 +羧 +羨 +義 +羯 +羲 +羸 +羹 +羽 +羿 +翁 +翅 +翊 +翌 +翎 +習 +翔 +翘 +翟 +翠 +翡 +翦 +翩 +翰 +翱 +翳 +翹 +翻 +翼 +耀 +老 +考 +耄 +者 +耆 +耋 +而 +耍 +耐 +耒 +耕 +耗 +耘 +耙 +耦 +耨 +耳 +耶 +耷 +耸 +耻 +耽 +耿 +聂 +聆 +聊 +聋 +职 +聒 +联 +聖 +聘 +聚 +聞 +聪 +聯 +聰 +聲 +聳 +聴 +聶 +職 +聽 +聾 +聿 +肃 +肄 +肅 +肆 +肇 +肉 +肋 +肌 +肏 +肓 +肖 +肘 +肚 +肛 +肝 +肠 +股 +肢 +肤 +肥 +肩 +肪 +肮 +肯 +肱 +育 +肴 +肺 +肽 +肾 +肿 +胀 +胁 +胃 +胄 +胆 +背 +胍 +胎 +胖 +胚 +胛 +胜 +胝 +胞 +胡 +胤 +胥 +胧 +胫 +胭 +胯 +胰 +胱 +胳 +胴 +胶 +胸 +胺 +能 +脂 +脅 +脆 +脇 +脈 +脉 +脊 +脍 +脏 +脐 +脑 +脓 +脖 +脘 +脚 +脛 +脣 +脩 +脫 +脯 +脱 +脲 +脳 +脸 +脹 +脾 +腆 +腈 +腊 +腋 +腌 +腎 +腐 +腑 +腓 +腔 +腕 +腥 +腦 +腩 +腫 +腭 +腮 +腰 +腱 +腳 +腴 +腸 +腹 +腺 +腻 +腼 +腾 +腿 +膀 +膈 +膊 +膏 +膑 +膘 +膚 +膛 +膜 +膝 +膠 +膦 +膨 +膩 +膳 +膺 +膻 +膽 +膾 +膿 +臀 +臂 +臃 +臆 +臉 +臊 +臍 +臓 +臘 +臟 +臣 +臥 +臧 +臨 +自 +臬 +臭 +至 +致 +臺 +臻 +臼 +臾 +舀 +舂 +舅 +舆 +與 +興 +舉 +舊 +舌 +舍 +舎 +舐 +舒 +舔 +舖 +舗 +舛 +舜 +舞 +舟 +航 +舫 +般 +舰 +舱 +舵 +舶 +舷 +舸 +船 +舺 +舾 +艇 +艋 +艘 +艙 +艦 +艮 +良 +艰 +艱 +色 +艳 +艷 +艹 +艺 +艾 +节 +芃 +芈 +芊 +芋 +芍 +芎 +芒 +芙 +芜 +芝 +芡 +芥 +芦 +芩 +芪 +芫 +芬 +芭 +芮 +芯 +花 +芳 +芷 +芸 +芹 +芻 +芽 +芾 +苁 +苄 +苇 +苋 +苍 +苏 +苑 +苒 +苓 +苔 +苕 +苗 +苛 +苜 +苞 +苟 +苡 +苣 +若 +苦 +苫 +苯 +英 +苷 +苹 +苻 +茁 +茂 +范 +茄 +茅 +茉 +茎 +茏 +茗 +茜 +茧 +茨 +茫 +茬 +茭 +茯 +茱 +茲 +茴 +茵 +茶 +茸 +茹 +茼 +荀 +荃 +荆 +草 +荊 +荏 +荐 +荒 +荔 +荖 +荘 +荚 +荞 +荟 +荠 +荡 +荣 +荤 +荥 +荧 +荨 +荪 +荫 +药 +荳 +荷 +荸 +荻 +荼 +荽 +莅 +莆 +莉 +莊 +莎 +莒 +莓 +莖 +莘 +莞 +莠 +莢 +莧 +莪 +莫 +莱 +莲 +莴 +获 +莹 +莺 +莽 +莿 +菀 +菁 +菅 +菇 +菈 +菊 +菌 +菏 +菓 +菖 +菘 +菜 +菟 +菠 +菡 +菩 +華 +菱 +菲 +菸 +菽 +萁 +萃 +萄 +萊 +萋 +萌 +萍 +萎 +萘 +萝 +萤 +营 +萦 +萧 +萨 +萩 +萬 +萱 +萵 +萸 +萼 +落 +葆 +葉 +著 +葚 +葛 +葡 +董 +葦 +葩 +葫 +葬 +葭 +葯 +葱 +葳 +葵 +葷 +葺 +蒂 +蒋 +蒐 +蒔 +蒙 +蒜 +蒞 +蒟 +蒡 +蒨 +蒲 +蒸 +蒹 +蒻 +蒼 +蒿 +蓁 +蓄 +蓆 +蓉 +蓋 +蓑 +蓓 +蓖 +蓝 +蓟 +蓦 +蓬 +蓮 +蓼 +蓿 +蔑 +蔓 +蔔 +蔗 +蔘 +蔚 +蔡 +蔣 +蔥 +蔫 +蔬 +蔭 +蔵 +蔷 +蔺 +蔻 +蔼 +蔽 +蕁 +蕃 +蕈 +蕉 +蕊 +蕎 +蕙 +蕤 +蕨 +蕩 +蕪 +蕭 +蕲 +蕴 +蕻 +蕾 +薄 +薅 +薇 +薈 +薊 +薏 +薑 +薔 +薙 +薛 +薦 +薨 +薩 +薪 +薬 +薯 +薰 +薹 +藉 +藍 +藏 +藐 +藓 +藕 +藜 +藝 +藤 +藥 +藩 +藹 +藻 +藿 +蘆 +蘇 +蘊 +蘋 +蘑 +蘚 +蘭 +蘸 +蘼 +蘿 +虎 +虏 +虐 +虑 +虔 +處 +虚 +虛 +虜 +虞 +號 +虢 +虧 +虫 +虬 +虱 +虹 +虻 +虽 +虾 +蚀 +蚁 +蚂 +蚊 +蚌 +蚓 +蚕 +蚜 +蚝 +蚣 +蚤 +蚩 +蚪 +蚯 +蚱 +蚵 +蛀 +蛆 +蛇 +蛊 +蛋 +蛎 +蛐 +蛔 +蛙 +蛛 +蛟 +蛤 +蛭 +蛮 +蛰 +蛳 +蛹 +蛻 +蛾 +蜀 +蜂 +蜃 +蜆 +蜇 +蜈 +蜊 +蜍 +蜒 +蜓 +蜕 +蜗 +蜘 +蜚 +蜜 +蜡 +蜢 +蜥 +蜱 +蜴 +蜷 +蜻 +蜿 +蝇 +蝈 +蝉 +蝌 +蝎 +蝕 +蝗 +蝙 +蝟 +蝠 +蝦 +蝨 +蝴 +蝶 +蝸 +蝼 +螂 +螃 +融 +螞 +螢 +螨 +螯 +螳 +螺 +蟀 +蟄 +蟆 +蟋 +蟎 +蟑 +蟒 +蟠 +蟬 +蟲 +蟹 +蟻 +蟾 +蠅 +蠍 +蠔 +蠕 +蠛 +蠟 +蠡 +蠢 +蠣 +蠱 +蠶 +蠹 +蠻 +血 +衄 +衅 +衆 +行 +衍 +術 +衔 +街 +衙 +衛 +衝 +衞 +衡 +衢 +衣 +补 +表 +衩 +衫 +衬 +衮 +衰 +衲 +衷 +衹 +衾 +衿 +袁 +袂 +袄 +袅 +袈 +袋 +袍 +袒 +袖 +袜 +袞 +袤 +袪 +被 +袭 +袱 +裁 +裂 +装 +裆 +裊 +裏 +裔 +裕 +裘 +裙 +補 +裝 +裟 +裡 +裤 +裨 +裱 +裳 +裴 +裸 +裹 +製 +裾 +褂 +複 +褐 +褒 +褓 +褔 +褚 +褥 +褪 +褫 +褲 +褶 +褻 +襁 +襄 +襟 +襠 +襪 +襬 +襯 +襲 +西 +要 +覃 +覆 +覇 +見 +規 +覓 +視 +覚 +覦 +覧 +親 +覬 +観 +覷 +覺 +覽 +觀 +见 +观 +规 +觅 +视 +览 +觉 +觊 +觎 +觐 +觑 +角 +觞 +解 +觥 +触 +觸 +言 +訂 +計 +訊 +討 +訓 +訕 +訖 +託 +記 +訛 +訝 +訟 +訣 +訥 +訪 +設 +許 +訳 +訴 +訶 +診 +註 +証 +詆 +詐 +詔 +評 +詛 +詞 +詠 +詡 +詢 +詣 +試 +詩 +詫 +詬 +詭 +詮 +詰 +話 +該 +詳 +詹 +詼 +誅 +誇 +誉 +誌 +認 +誓 +誕 +誘 +語 +誠 +誡 +誣 +誤 +誥 +誦 +誨 +說 +説 +読 +誰 +課 +誹 +誼 +調 +諄 +談 +請 +諏 +諒 +論 +諗 +諜 +諡 +諦 +諧 +諫 +諭 +諮 +諱 +諳 +諷 +諸 +諺 +諾 +謀 +謁 +謂 +謄 +謊 +謎 +謐 +謔 +謗 +謙 +講 +謝 +謠 +謨 +謬 +謹 +謾 +譁 +證 +譎 +譏 +識 +譙 +譚 +譜 +警 +譬 +譯 +議 +譲 +譴 +護 +譽 +讀 +變 +讓 +讚 +讞 +计 +订 +认 +讥 +讧 +讨 +让 +讪 +讫 +训 +议 +讯 +记 +讲 +讳 +讴 +讶 +讷 +许 +讹 +论 +讼 +讽 +设 +访 +诀 +证 +诃 +评 +诅 +识 +诈 +诉 +诊 +诋 +词 +诏 +译 +试 +诗 +诘 +诙 +诚 +诛 +话 +诞 +诟 +诠 +诡 +询 +诣 +诤 +该 +详 +诧 +诩 +诫 +诬 +语 +误 +诰 +诱 +诲 +说 +诵 +诶 +请 +诸 +诺 +读 +诽 +课 +诿 +谀 +谁 +调 +谄 +谅 +谆 +谈 +谊 +谋 +谌 +谍 +谎 +谏 +谐 +谑 +谒 +谓 +谔 +谕 +谗 +谘 +谙 +谚 +谛 +谜 +谟 +谢 +谣 +谤 +谥 +谦 +谧 +谨 +谩 +谪 +谬 +谭 +谯 +谱 +谲 +谴 +谶 +谷 +豁 +豆 +豇 +豈 +豉 +豊 +豌 +豎 +豐 +豔 +豚 +象 +豢 +豪 +豫 +豬 +豹 +豺 +貂 +貅 +貌 +貓 +貔 +貘 +貝 +貞 +負 +財 +貢 +貧 +貨 +販 +貪 +貫 +責 +貯 +貰 +貳 +貴 +貶 +買 +貸 +費 +貼 +貽 +貿 +賀 +賁 +賂 +賃 +賄 +資 +賈 +賊 +賑 +賓 +賜 +賞 +賠 +賡 +賢 +賣 +賤 +賦 +質 +賬 +賭 +賴 +賺 +購 +賽 +贅 +贈 +贊 +贍 +贏 +贓 +贖 +贛 +贝 +贞 +负 +贡 +财 +责 +贤 +败 +账 +货 +质 +贩 +贪 +贫 +贬 +购 +贮 +贯 +贰 +贱 +贲 +贴 +贵 +贷 +贸 +费 +贺 +贻 +贼 +贾 +贿 +赁 +赂 +赃 +资 +赅 +赈 +赊 +赋 +赌 +赎 +赏 +赐 +赓 +赔 +赖 +赘 +赚 +赛 +赝 +赞 +赠 +赡 +赢 +赣 +赤 +赦 +赧 +赫 +赭 +走 +赳 +赴 +赵 +赶 +起 +趁 +超 +越 +趋 +趕 +趙 +趟 +趣 +趨 +足 +趴 +趵 +趸 +趺 +趾 +跃 +跄 +跆 +跋 +跌 +跎 +跑 +跖 +跚 +跛 +距 +跟 +跡 +跤 +跨 +跩 +跪 +路 +跳 +践 +跷 +跹 +跺 +跻 +踉 +踊 +踌 +踏 +踐 +踝 +踞 +踟 +踢 +踩 +踪 +踮 +踱 +踴 +踵 +踹 +蹂 +蹄 +蹇 +蹈 +蹉 +蹊 +蹋 +蹑 +蹒 +蹙 +蹟 +蹣 +蹤 +蹦 +蹩 +蹬 +蹭 +蹲 +蹴 +蹶 +蹺 +蹼 +蹿 +躁 +躇 +躉 +躊 +躋 +躍 +躏 +躪 +身 +躬 +躯 +躲 +躺 +軀 +車 +軋 +軌 +軍 +軒 +軟 +転 +軸 +軼 +軽 +軾 +較 +載 +輒 +輓 +輔 +輕 +輛 +輝 +輟 +輩 +輪 +輯 +輸 +輻 +輾 +輿 +轄 +轅 +轆 +轉 +轍 +轎 +轟 +车 +轧 +轨 +轩 +转 +轭 +轮 +软 +轰 +轲 +轴 +轶 +轻 +轼 +载 +轿 +较 +辄 +辅 +辆 +辇 +辈 +辉 +辊 +辍 +辐 +辑 +输 +辕 +辖 +辗 +辘 +辙 +辛 +辜 +辞 +辟 +辣 +辦 +辨 +辩 +辫 +辭 +辮 +辯 +辰 +辱 +農 +边 +辺 +辻 +込 +辽 +达 +迁 +迂 +迄 +迅 +过 +迈 +迎 +运 +近 +返 +还 +这 +进 +远 +违 +连 +迟 +迢 +迤 +迥 +迦 +迩 +迪 +迫 +迭 +述 +迴 +迷 +迸 +迹 +迺 +追 +退 +送 +适 +逃 +逅 +逆 +选 +逊 +逍 +透 +逐 +递 +途 +逕 +逗 +這 +通 +逛 +逝 +逞 +速 +造 +逢 +連 +逮 +週 +進 +逵 +逶 +逸 +逻 +逼 +逾 +遁 +遂 +遅 +遇 +遊 +運 +遍 +過 +遏 +遐 +遑 +遒 +道 +達 +違 +遗 +遙 +遛 +遜 +遞 +遠 +遢 +遣 +遥 +遨 +適 +遭 +遮 +遲 +遴 +遵 +遶 +遷 +選 +遺 +遼 +遽 +避 +邀 +邁 +邂 +邃 +還 +邇 +邈 +邊 +邋 +邏 +邑 +邓 +邕 +邛 +邝 +邢 +那 +邦 +邨 +邪 +邬 +邮 +邯 +邰 +邱 +邳 +邵 +邸 +邹 +邺 +邻 +郁 +郅 +郊 +郎 +郑 +郜 +郝 +郡 +郢 +郤 +郦 +郧 +部 +郫 +郭 +郴 +郵 +郷 +郸 +都 +鄂 +鄉 +鄒 +鄔 +鄙 +鄞 +鄢 +鄧 +鄭 +鄰 +鄱 +鄲 +鄺 +酉 +酊 +酋 +酌 +配 +酐 +酒 +酗 +酚 +酝 +酢 +酣 +酥 +酩 +酪 +酬 +酮 +酯 +酰 +酱 +酵 +酶 +酷 +酸 +酿 +醃 +醇 +醉 +醋 +醍 +醐 +醒 +醚 +醛 +醜 +醞 +醣 +醪 +醫 +醬 +醮 +醯 +醴 +醺 +釀 +釁 +采 +釉 +释 +釋 +里 +重 +野 +量 +釐 +金 +釗 +釘 +釜 +針 +釣 +釦 +釧 +釵 +鈀 +鈉 +鈍 +鈎 +鈔 +鈕 +鈞 +鈣 +鈦 +鈪 +鈴 +鈺 +鈾 +鉀 +鉄 +鉅 +鉉 +鉑 +鉗 +鉚 +鉛 +鉤 +鉴 +鉻 +銀 +銃 +銅 +銑 +銓 +銖 +銘 +銜 +銬 +銭 +銮 +銳 +銷 +銹 +鋁 +鋅 +鋒 +鋤 +鋪 +鋰 +鋸 +鋼 +錄 +錐 +錘 +錚 +錠 +錢 +錦 +錨 +錫 +錮 +錯 +録 +錳 +錶 +鍊 +鍋 +鍍 +鍛 +鍥 +鍰 +鍵 +鍺 +鍾 +鎂 +鎊 +鎌 +鎏 +鎔 +鎖 +鎗 +鎚 +鎧 +鎬 +鎮 +鎳 +鏈 +鏖 +鏗 +鏘 +鏞 +鏟 +鏡 +鏢 +鏤 +鏽 +鐘 +鐮 +鐲 +鐳 +鐵 +鐸 +鐺 +鑄 +鑊 +鑑 +鑒 +鑣 +鑫 +鑰 +鑲 +鑼 +鑽 +鑾 +鑿 +针 +钉 +钊 +钎 +钏 +钒 +钓 +钗 +钙 +钛 +钜 +钝 +钞 +钟 +钠 +钡 +钢 +钣 +钤 +钥 +钦 +钧 +钨 +钩 +钮 +钯 +钰 +钱 +钳 +钴 +钵 +钺 +钻 +钼 +钾 +钿 +铀 +铁 +铂 +铃 +铄 +铅 +铆 +铉 +铎 +铐 +铛 +铜 +铝 +铠 +铡 +铢 +铣 +铤 +铨 +铩 +铬 +铭 +铮 +铰 +铲 +铵 +银 +铸 +铺 +链 +铿 +销 +锁 +锂 +锄 +锅 +锆 +锈 +锉 +锋 +锌 +锏 +锐 +锑 +错 +锚 +锟 +锡 +锢 +锣 +锤 +锥 +锦 +锭 +键 +锯 +锰 +锲 +锵 +锹 +锺 +锻 +镀 +镁 +镂 +镇 +镉 +镌 +镍 +镐 +镑 +镕 +镖 +镗 +镛 +镜 +镣 +镭 +镯 +镰 +镳 +镶 +長 +长 +門 +閃 +閉 +開 +閎 +閏 +閑 +閒 +間 +閔 +閘 +閡 +関 +閣 +閥 +閨 +閩 +閱 +閲 +閹 +閻 +閾 +闆 +闇 +闊 +闌 +闍 +闔 +闕 +闖 +闘 +關 +闡 +闢 +门 +闪 +闫 +闭 +问 +闯 +闰 +闲 +间 +闵 +闷 +闸 +闹 +闺 +闻 +闽 +闾 +阀 +阁 +阂 +阅 +阆 +阇 +阈 +阉 +阎 +阐 +阑 +阔 +阕 +阖 +阙 +阚 +阜 +队 +阡 +阪 +阮 +阱 +防 +阳 +阴 +阵 +阶 +阻 +阿 +陀 +陂 +附 +际 +陆 +陇 +陈 +陋 +陌 +降 +限 +陕 +陛 +陝 +陞 +陟 +陡 +院 +陣 +除 +陨 +险 +陪 +陰 +陲 +陳 +陵 +陶 +陷 +陸 +険 +陽 +隅 +隆 +隈 +隊 +隋 +隍 +階 +随 +隐 +隔 +隕 +隘 +隙 +際 +障 +隠 +隣 +隧 +隨 +險 +隱 +隴 +隶 +隸 +隻 +隼 +隽 +难 +雀 +雁 +雄 +雅 +集 +雇 +雉 +雋 +雌 +雍 +雎 +雏 +雑 +雒 +雕 +雖 +雙 +雛 +雜 +雞 +離 +難 +雨 +雪 +雯 +雰 +雲 +雳 +零 +雷 +雹 +電 +雾 +需 +霁 +霄 +霆 +震 +霈 +霉 +霊 +霍 +霎 +霏 +霑 +霓 +霖 +霜 +霞 +霧 +霭 +霰 +露 +霸 +霹 +霽 +霾 +靂 +靄 +靈 +青 +靓 +靖 +静 +靚 +靛 +靜 +非 +靠 +靡 +面 +靥 +靦 +革 +靳 +靴 +靶 +靼 +鞅 +鞋 +鞍 +鞏 +鞑 +鞘 +鞠 +鞣 +鞦 +鞭 +韆 +韋 +韌 +韓 +韜 +韦 +韧 +韩 +韬 +韭 +音 +韵 +韶 +韻 +響 +頁 +頂 +頃 +項 +順 +須 +頌 +預 +頑 +頒 +頓 +頗 +領 +頜 +頡 +頤 +頫 +頭 +頰 +頷 +頸 +頹 +頻 +頼 +顆 +題 +額 +顎 +顏 +顔 +願 +顛 +類 +顧 +顫 +顯 +顱 +顴 +页 +顶 +顷 +项 +顺 +须 +顼 +顽 +顾 +顿 +颁 +颂 +预 +颅 +领 +颇 +颈 +颉 +颊 +颌 +颍 +颐 +频 +颓 +颔 +颖 +颗 +题 +颚 +颛 +颜 +额 +颞 +颠 +颡 +颢 +颤 +颦 +颧 +風 +颯 +颱 +颳 +颶 +颼 +飄 +飆 +风 +飒 +飓 +飕 +飘 +飙 +飚 +飛 +飞 +食 +飢 +飨 +飩 +飪 +飯 +飲 +飼 +飽 +飾 +餃 +餅 +餉 +養 +餌 +餐 +餒 +餓 +餘 +餚 +餛 +餞 +餡 +館 +餮 +餵 +餾 +饅 +饈 +饋 +饌 +饍 +饑 +饒 +饕 +饗 +饞 +饥 +饨 +饪 +饬 +饭 +饮 +饯 +饰 +饱 +饲 +饴 +饵 +饶 +饷 +饺 +饼 +饽 +饿 +馀 +馁 +馄 +馅 +馆 +馈 +馋 +馍 +馏 +馒 +馔 +首 +馗 +香 +馥 +馨 +馬 +馭 +馮 +馳 +馴 +駁 +駄 +駅 +駆 +駐 +駒 +駕 +駛 +駝 +駭 +駱 +駿 +騁 +騎 +騏 +験 +騙 +騨 +騰 +騷 +驀 +驅 +驊 +驍 +驒 +驕 +驗 +驚 +驛 +驟 +驢 +驥 +马 +驭 +驮 +驯 +驰 +驱 +驳 +驴 +驶 +驷 +驸 +驹 +驻 +驼 +驾 +驿 +骁 +骂 +骄 +骅 +骆 +骇 +骈 +骊 +骋 +验 +骏 +骐 +骑 +骗 +骚 +骛 +骜 +骞 +骠 +骡 +骤 +骥 +骧 +骨 +骯 +骰 +骶 +骷 +骸 +骼 +髂 +髅 +髋 +髏 +髒 +髓 +體 +髖 +高 +髦 +髪 +髮 +髯 +髻 +鬃 +鬆 +鬍 +鬓 +鬚 +鬟 +鬢 +鬣 +鬥 +鬧 +鬱 +鬼 +魁 +魂 +魄 +魅 +魇 +魍 +魏 +魔 +魘 +魚 +魯 +魷 +鮑 +鮨 +鮪 +鮭 +鮮 +鯉 +鯊 +鯖 +鯛 +鯨 +鯰 +鯽 +鰍 +鰓 +鰭 +鰲 +鰻 +鰾 +鱈 +鱉 +鱔 +鱗 +鱷 +鱸 +鱼 +鱿 +鲁 +鲈 +鲍 +鲑 +鲛 +鲜 +鲟 +鲢 +鲤 +鲨 +鲫 +鲱 +鲲 +鲶 +鲷 +鲸 +鳃 +鳄 +鳅 +鳌 +鳍 +鳕 +鳖 +鳗 +鳝 +鳞 +鳥 +鳩 +鳳 +鳴 +鳶 +鴉 +鴕 +鴛 +鴦 +鴨 +鴻 +鴿 +鵑 +鵜 +鵝 +鵡 +鵬 +鵰 +鵲 +鶘 +鶩 +鶯 +鶴 +鷗 +鷲 +鷹 +鷺 +鸚 +鸞 +鸟 +鸠 +鸡 +鸢 +鸣 +鸥 +鸦 +鸨 +鸪 +鸭 +鸯 +鸳 +鸵 +鸽 +鸾 +鸿 +鹂 +鹃 +鹄 +鹅 +鹈 +鹉 +鹊 +鹌 +鹏 +鹑 +鹕 +鹘 +鹜 +鹞 +鹤 +鹦 +鹧 +鹫 +鹭 +鹰 +鹳 +鹵 +鹹 +鹼 +鹽 +鹿 +麂 +麋 +麒 +麓 +麗 +麝 +麟 +麥 +麦 +麩 +麴 +麵 +麸 +麺 +麻 +麼 +麽 +麾 +黃 +黄 +黍 +黎 +黏 +黑 +黒 +黔 +默 +黛 +黜 +黝 +點 +黠 +黨 +黯 +黴 +鼋 +鼎 +鼐 +鼓 +鼠 +鼬 +鼹 +鼻 +鼾 +齁 +齊 +齋 +齐 +齒 +齡 +齢 +齣 +齦 +齿 +龄 +龅 +龈 +龊 +龋 +龌 +龍 +龐 +龔 +龕 +龙 +龚 +龛 +龜 +龟 +︰ +︱ +︶ +︿ +﹁ +﹂ +﹍ +﹏ +﹐ +﹑ +﹒ +﹔ +﹕ +﹖ +﹗ +﹙ +﹚ +﹝ +﹞ +﹡ +﹣ +! +" +# +$ +% +& +' +( +) +* ++ +, +- +. +/ +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +: +; +< += +> +? +@ +[ +\ +] +^ +_ +` +a +b +c +d +e +f +g +h +i +j +k +l +m +n +o +p +q +r +s +t +u +v +w +x +y +z +{ +| +} +~ +。 +「 +」 +、 +・ +ッ +ー +イ +ク +シ +ス +ト +ノ +フ +ラ +ル +ン +゙ +゚ + ̄ +¥ +👍 +🔥 +😂 +😎 +... +yam +10 +2017 +12 +11 +2016 +20 +30 +15 +06 +lofter +##s +2015 +by +16 +14 +18 +13 +24 +17 +2014 +21 +##0 +22 +19 +25 +23 +com +100 +00 +05 +2013 +##a +03 +09 +08 +28 +##2 +50 +01 +04 +##1 +27 +02 +2012 +##3 +26 +##e +07 +##8 +##5 +##6 +##4 +##9 +##7 +29 +2011 +40 +##t +2010 +##o +##d +##i +2009 +##n +app +www +the +##m +31 +##c +##l +##y +##r +##g +2008 +60 +http +200 +qq +##p +80 +##f +google +pixnet +90 +cookies +tripadvisor +500 +##er +##k +35 +##h +facebook +2007 +2000 +70 +##b +of +##x +##u +45 +300 +iphone +32 +1000 +2006 +48 +ip +36 +in +38 +3d +##w +##ing +55 +ctrip +##on +##v +33 +##の +to +34 +400 +id +2005 +it +37 +windows +llc +top +99 +42 +39 +000 +led +at +##an +41 +51 +52 +46 +49 +43 +53 +44 +##z +android +58 +and +59 +2004 +56 +vr +##か +5000 +2003 +47 +blogthis +twitter +54 +##le +150 +ok +2018 +57 +75 +cn +no +ios +##in +##mm +##00 +800 +on +te +3000 +65 +2001 +360 +95 +ig +lv +120 +##ng +##を +##us +##に +pc +てす +── +600 +##te +85 +2002 +88 +##ed +html +ncc +wifi +email +64 +blog +is +##10 +##て +mail +online +##al +dvd +##ic +studio +##は +##℃ +##ia +##と +line +vip +72 +##q +98 +##ce +##en +for +##is +##ra +##es +##j +usb +net +cp +1999 +asia +4g +##cm +diy +new +3c +##お +ta +66 +language +vs +apple +tw +86 +web +##ne +ipad +62 +you +##re +101 +68 +##tion +ps +de +bt +pony +atm +##2017 +1998 +67 +##ch +ceo +##or +go +##na +av +pro +cafe +96 +pinterest +97 +63 +pixstyleme3c +##ta +more +said +##2016 +1997 +mp3 +700 +##ll +nba +jun +##20 +92 +tv +1995 +pm +61 +76 +nbsp +250 +##ie +linux +##ma +cd +110 +hd +##17 +78 +##ion +77 +6000 +am +##th +##st +94 +##se +##et +69 +180 +gdp +my +105 +81 +abc +89 +flash +79 +one +93 +1990 +1996 +##ck +gps +##も +##ly +web885 +106 +2020 +91 +##ge +4000 +1500 +xd +boss +isbn +1994 +org +##ry +me +love +##11 +0fork +73 +##12 +3g +##ter +##ar +71 +82 +##la +hotel +130 +1970 +pk +83 +87 +140 +ie +##os +##30 +##el +74 +##50 +seo +cpu +##ml +p2p +84 +may +##る +sun +tue +internet +cc +posted +youtube +##at +##ン +##man +ii +##ル +##15 +abs +nt +pdf +yahoo +ago +1980 +##it +news +mac +104 +##てす +##me +##り +java +1992 +spa +##de +##nt +hk +all +plus +la +1993 +##mb +##16 +##ve +west +##da +160 +air +##い +##ps +から +##to +1989 +logo +htc +php +https +fi +momo +##son +sat +##ke +##80 +ebd +suv +wi +day +apk +##88 +##um +mv +galaxy +wiki +or +brake +##ス +1200 +する +this +1991 +mon +##こ +❤2017 +po +##ない +javascript +life +home +june +##ss +system +900 +##ー +##0 +pp +1988 +world +fb +4k +br +##as +ic +ai +leonardo +safari +##60 +live +free +xx +wed +win7 +kiehl +##co +lg +o2o +##go +us +235 +1949 +mm +しい +vfm +kanye +##90 +##2015 +##id +jr +##ey +123 +rss +##sa +##ro +##am +##no +thu +fri +350 +##sh +##ki +103 +comments +name +##のて +##pe +##ine +max +1987 +8000 +uber +##mi +##ton +wordpress +office +1986 +1985 +##ment +107 +bd +win10 +##ld +##li +gmail +bb +dior +##rs +##ri +##rd +##ます +up +cad +##® +dr +して +read +##21 +をお +##io +##99 +url +1984 +pvc +paypal +show +policy +##40 +##ty +##18 +with +##★ +##01 +txt +102 +##ba +dna +from +post +mini +ar +taiwan +john +##ga +privacy +agoda +##13 +##ny +word +##24 +##22 +##by +##ur +##hz +1982 +##ang +265 +cookie +netscape +108 +##ka +##~ +##ad +house +share +note +ibm +code +hello +nike +sim +survey +##016 +1979 +1950 +wikia +##32 +##017 +5g +cbc +##tor +##kg +1983 +##rt +##14 +campaign +store +2500 +os +##ct +##ts +##° +170 +api +##ns +365 +excel +##な +##ao +##ら +##し +~~ +##nd +university +163 +には +518 +##70 +##ya +##il +##25 +pierre +ipo +0020 +897 +##23 +hotels +##ian +のお +125 +years +6606 +##ers +##26 +high +##day +time +##ay +bug +##line +##く +##す +##be +xp +talk2yam +yamservice +10000 +coco +##dy +sony +##ies +1978 +microsoft +david +people +##ha +1960 +instagram +intel +その +##ot +iso +1981 +##va +115 +##mo +##land +xxx +man +co +ltxsw +##ation +baby +220 +##pa +##ol +1945 +7000 +tag +450 +##ue +msn +##31 +oppo +##ト +##ca +control +##om +st +chrome +##ure +##ん +be +##き +lol +##19 +した +##bo +240 +lady +##100 +##way +##から +4600 +##ko +##do +##un +4s +corporation +168 +##ni +herme +##28 +cp +978 +##up +##06 +ui +##ds +ppt +admin +three +します +bbc +re +128 +##48 +ca +##015 +##35 +hp +##ee +tpp +##た +##ive +×× +root +##cc +##ました +##ble +##ity +adobe +park +114 +et +oled +city +##ex +##ler +##ap +china +##book +20000 +view +##ice +global +##km +your +hong +##mg +out +##ms +ng +ebay +##29 +menu +ubuntu +##cy +rom +##view +open +ktv +do +server +##lo +if +english +##ね +##5 +##oo +1600 +##02 +step1 +kong +club +135 +july +inc +1976 +mr +hi +##net +touch +##ls +##ii +michael +lcd +##05 +##33 +phone +james +step2 +1300 +ios9 +##box +dc +##2 +##ley +samsung +111 +280 +pokemon +css +##ent +##les +いいえ +##1 +s8 +atom +play +bmw +##said +sa +etf +ctrl +♥yoyo♥ +##55 +2025 +##2014 +##66 +adidas +amazon +1958 +##ber +##ner +visa +##77 +##der +1800 +connectivity +##hi +firefox +109 +118 +hr +so +style +mark +pop +ol +skip +1975 +as +##27 +##ir +##61 +190 +mba +##う +##ai +le +##ver +1900 +cafe2017 +lte +super +113 +129 +##ron +amd +like +##☆ +are +##ster +we +##sk +paul +data +international +##ft +longchamp +ssd +good +##ート +##ti +reply +##my +↓↓↓ +apr +star +##ker +source +136 +js +112 +get +force +photo +##one +126 +##2013 +##ow +link +bbs +1972 +goods +##lin +python +119 +##ip +game +##ics +##ません +blue +##● +520 +##45 +page +itunes +##03 +1955 +260 +1968 +gt +gif +618 +##ff +##47 +group +くたさい +about +bar +ganji +##nce +music +lee +not +1977 +1971 +1973 +##per +an +faq +comment +##って +days +##ock +116 +##bs +1974 +1969 +v1 +player +1956 +xbox +sql +fm +f1 +139 +##ah +210 +##lv +##mp +##000 +melody +1957 +##3 +550 +17life +199 +1966 +xml +market +##au +##71 +999 +##04 +what +gl +##95 +##age +tips +##68 +book +##ting +mysql +can +1959 +230 +##ung +wonderland +watch +10℃ +##ction +9000 +mar +mobile +1946 +1962 +article +##db +part +▲top +party +って +1967 +1964 +1948 +##07 +##ore +##op +この +dj +##78 +##38 +010 +main +225 +1965 +##ong +art +320 +ad +134 +020 +##73 +117 +pm2 +japan +228 +##08 +ts +1963 +##ica +der +sm +##36 +2019 +##wa +ct +##7 +##や +##64 +1937 +homemesh +search +##85 +##れは +##tv +##di +macbook +##9 +##くたさい +service +##♥ +type +った +750 +##ier +##si +##75 +##います +##ok +best +##ット +goris +lock +##った +cf +3m +big +##ut +ftp +carol +##vi +10 +1961 +happy +sd +##ac +122 +anti +pe +cnn +iii +1920 +138 +##ラ +1940 +esp +jan +tags +##98 +##51 +august +vol +##86 +154 +##™ +##fs +##れ +##sion +design +ac +##ム +press +jordan +ppp +that +key +check +##6 +##tt +##㎡ +1080p +##lt +power +##42 +1952 +##bc +vivi +##ック +he +133 +121 +jpg +##rry +201 +175 +3500 +1947 +nb +##ted +##rn +しています +1954 +usd +##t00 +master +##ンク +001 +model +##58 +al +##09 +1953 +##34 +ram +goo +ても +##ui +127 +1930 +red +##ary +rpg +item +##pm +##41 +270 +##za +project +##2012 +hot +td +blogabstract +##ger +##62 +650 +##44 +gr2 +##します +##m +black +electronic +nfc +year +asus +また +html5 +cindy +##hd +m3 +132 +esc +##od +booking +##53 +fed +tvb +##81 +##ina +mit +165 +##いる +chan +192 +distribution +next +になる +peter +bios +steam +cm +1941 +にも +pk10 +##ix +##65 +##91 +dec +nasa +##ana +icecat +00z +b1 +will +##46 +li +se +##ji +##み +##ard +oct +##ain +jp +##ze +##bi +cio +##56 +smart +h5 +##39 +##port +curve +vpn +##nm +##dia +utc +##あり +12345678910 +##52 +rmvb +chanel +a4 +miss +##and +##im +media +who +##63 +she +girl +5s +124 +vera +##して +class +vivo +king +##フ +##ei +national +ab +1951 +5cm +888 +145 +ipod +ap +1100 +5mm +211 +ms +2756 +##69 +mp4 +msci +##po +##89 +131 +mg +index +380 +##bit +##out +##zz +##97 +##67 +158 +apec +##8 +photoshop +opec +¥799 +ては +##96 +##tes +##ast +2g +○○ +##ール +¥2899 +##ling +##よ +##ory +1938 +##ical +kitty +content +##43 +step3 +##cn +win8 +155 +vc +1400 +iphone7 +robert +##した +tcl +137 +beauty +##87 +en +dollars +##ys +##oc +step +pay +yy +a1 +##2011 +##lly +##ks +##♪ +1939 +188 +download +1944 +sep +exe +ph +います +school +gb +center +pr +street +##board +uv +##37 +##lan +winrar +##que +##ua +##com +1942 +1936 +480 +gpu +##4 +ettoday +fu +tom +##54 +##ren +##via +149 +##72 +b2b +144 +##79 +##tch +rose +arm +mb +##49 +##ial +##nn +nvidia +step4 +mvp +00㎡ +york +156 +##イ +how +cpi +591 +2765 +gov +kg +joe +##xx +mandy +pa +##ser +copyright +fashion +1935 +don +##け +ecu +##ist +##art +erp +wap +have +##lm +talk +##ek +##ning +##if +ch +##ite +video +1943 +cs +san +iot +look +##84 +##2010 +##ku +october +##ux +trump +##hs +##ide +box +141 +first +##ins +april +##ight +##83 +185 +angel +protected +aa +151 +162 +x1 +m2 +##fe +##× +##ho +size +143 +min +ofo +fun +gomaji +ex +hdmi +food +dns +march +chris +kevin +##のか +##lla +##pp +##ec +ag +ems +6s +720p +##rm +##ham +off +##92 +asp +team +fandom +ed +299 +▌♥ +##ell +info +されています +##82 +sina +4066 +161 +##able +##ctor +330 +399 +315 +dll +rights +ltd +idc +jul +3kg +1927 +142 +ma +surface +##76 +##ク +~~~ +304 +mall +eps +146 +green +##59 +map +space +donald +v2 +sodu +##light +1931 +148 +1700 +まて +310 +reserved +htm +##han +##57 +2d +178 +mod +##ise +##tions +152 +ti +##shi +doc +1933 +icp +055 +wang +##ram +shopping +aug +##pi +##well +now +wam +b2 +からお +##hu +236 +1928 +##gb +266 +f2 +##93 +153 +mix +##ef +##uan +bwl +##plus +##res +core +##ess +tea +5℃ +hktvmall +nhk +##ate +list +##ese +301 +feb +4m +inn +ての +nov +159 +12345 +daniel +##ci +pass +##bet +##nk +coffee +202 +ssl +airbnb +##ute +fbi +woshipm +skype +ea +cg +sp +##fc +##www +yes +edge +alt +007 +##94 +fpga +##ght +##gs +iso9001 +さい +##ile +##wood +##uo +image +lin +icon +american +##em +1932 +set +says +##king +##tive +blogger +##74 +なと +256 +147 +##ox +##zy +##red +##ium +##lf +nokia +claire +##リ +##ding +november +lohas +##500 +##tic +##マ +##cs +##ある +##che +##ire +##gy +##ult +db +january +win +##カ +166 +road +ptt +##ま +##つ +198 +##fa +##mer +anna +pchome +はい +udn +ef +420 +##time +##tte +2030 +##ア +g20 +white +かかります +1929 +308 +garden +eleven +di +##おります +chen +309b +777 +172 +young +cosplay +ちてない +4500 +bat +##123 +##tra +##ては +kindle +npc +steve +etc +##ern +##| +call +xperia +ces +travel +sk +s7 +##ous +1934 +##int +みいたたけます +183 +edu +file +cho +qr +##car +##our +186 +##ant +##d +eric +1914 +rends +##jo +##する +mastercard +##2000 +kb +##min +290 +##ino +vista +##ris +##ud +jack +2400 +##set +169 +pos +1912 +##her +##ou +taipei +しく +205 +beta +##ませんか +232 +##fi +express +255 +body +##ill +aphojoy +user +december +meiki +##ick +tweet +richard +##av +##ᆫ +iphone6 +##dd +ちてすか +views +##mark +321 +pd +##00 +times +##▲ +level +##ash +10g +point +5l +##ome +208 +koreanmall +##ak +george +q2 +206 +wma +tcp +##200 +スタッフ +full +mlb +##lle +##watch +tm +run +179 +911 +smith +business +##und +1919 +color +##tal +222 +171 +##less +moon +4399 +##rl +update +pcb +shop +499 +157 +little +なし +end +##mhz +van +dsp +easy +660 +##house +##key +history +##o +oh +##001 +##hy +##web +oem +let +was +##2009 +##gg +review +##wan +182 +##°c +203 +uc +title +##val +united +233 +2021 +##ons +doi +trivago +overdope +sbs +##ance +##ち +grand +special +573032185 +imf +216 +wx17house +##so +##ーム +audi +##he +london +william +##rp +##ake +science +beach +cfa +amp +ps4 +880 +##800 +##link +##hp +crm +ferragamo +bell +make +##eng +195 +under +zh +photos +2300 +##style +##ント +via +176 +da +##gi +company +i7 +##ray +thomas +370 +ufo +i5 +##max +plc +ben +back +research +8g +173 +mike +##pc +##ッフ +september +189 +##ace +vps +february +167 +pantos +wp +lisa +1921 +★★ +jquery +night +long +offer +##berg +##news +1911 +##いて +ray +fks +wto +せます +over +164 +340 +##all +##rus +1924 +##888 +##works +blogtitle +loftpermalink +##→ +187 +martin +test +ling +km +##め +15000 +fda +v3 +##ja +##ロ +wedding +かある +outlet +family +##ea +をこ +##top +story +##ness +salvatore +##lu +204 +swift +215 +room +している +oracle +##ul +1925 +sam +b2c +week +pi +rock +##のは +##a +##けと +##ean +##300 +##gle +cctv +after +chinese +##back +powered +x2 +##tan +1918 +##nes +##イン +canon +only +181 +##zi +##las +say +##oe +184 +##sd +221 +##bot +##world +##zo +sky +made +top100 +just +1926 +pmi +802 +234 +gap +##vr +177 +les +174 +▲topoct +ball +vogue +vi +ing +ofweek +cos +##list +##ort +▲topmay +##なら +##lon +として +last +##tc +##of +##bus +##gen +real +eva +##コ +a3 +nas +##lie +##ria +##coin +##bt +▲topapr +his +212 +cat +nata +vive +health +⋯⋯ +drive +sir +▲topmar +du +cup +##カー +##ook +##よう +##sy +alex +msg +tour +しました +3ce +##word +193 +ebooks +r8 +block +318 +##より +2200 +nice +pvp +207 +months +1905 +rewards +##ther +1917 +0800 +##xi +##チ +##sc +micro +850 +gg +blogfp +op +1922 +daily +m1 +264 +true +##bb +ml +##tar +##のお +##ky +anthony +196 +253 +##yo +state +218 +##ara +##aa +##rc +##tz +##ston +より +gear +##eo +##ade +ge +see +1923 +##win +##ura +ss +heart +##den +##ita +down +##sm +el +png +2100 +610 +rakuten +whatsapp +bay +dream +add +##use +680 +311 +pad +gucci +mpv +##ode +##fo +island +▲topjun +##▼ +223 +jason +214 +chicago +##❤ +しの +##hone +io +##れる +##ことか +sogo +be2 +##ology +990 +cloud +vcd +##con +2~3 +##ford +##joy +##kb +##こさいます +##rade +but +##ach +docker +##ful +rfid +ul +##ase +hit +ford +##star +580 +##○ +11 +a2 +sdk +reading +edited +##are +cmos +##mc +238 +siri +light +##ella +##ため +bloomberg +##read +pizza +##ison +jimmy +##vm +college +node +journal +ba +18k +##play +245 +##cer +20 +magic +##yu +191 +jump +288 +tt +##ings +asr +##lia +3200 +step5 +network +##cd +mc +いします +1234 +pixstyleme +273 +##600 +2800 +money +★★★★★ +1280 +12 +430 +bl +みの +act +##tus +tokyo +##rial +##life +emba +##ae +saas +tcs +##rk +##wang +summer +##sp +ko +##ving +390 +premium +##その +netflix +##ヒ +uk +mt +##lton +right +frank +two +209 +える +##ple +##cal +021 +##んな +##sen +##ville +hold +nexus +dd +##ius +てお +##mah +##なく +tila +zero +820 +ce +##tin +resort +##ws +charles +old +p10 +5d +report +##360 +##ru +##には +bus +vans +lt +##est +pv +##レ +links +rebecca +##ツ +##dm +azure +##365 +きな +limited +bit +4gb +##mon +1910 +moto +##eam +213 +1913 +var +eos +なとの +226 +blogspot +された +699 +e3 +dos +dm +fc +##ments +##ik +##kw +boy +##bin +##ata +960 +er +##せ +219 +##vin +##tu +##ula +194 +##∥ +station +##ろ +##ature +835 +files +zara +hdr +top10 +nature +950 +magazine +s6 +marriott +##シ +avira +case +##っと +tab +##ran +tony +##home +oculus +im +##ral +jean +saint +cry +307 +rosie +##force +##ini +ice +##bert +のある +##nder +##mber +pet +2600 +##◆ +plurk +▲topdec +##sis +00kg +▲topnov +720 +##ence +tim +##ω +##nc +##ても +##name +log +ips +great +ikea +malaysia +unix +##イト +3600 +##ncy +##nie +12000 +akb48 +##ye +##oid +404 +##chi +##いた +oa +xuehai +##1000 +##orm +##rf +275 +さん +##ware +##リー +980 +ho +##pro +text +##era +560 +bob +227 +##ub +##2008 +8891 +scp +avi +##zen +2022 +mi +wu +museum +qvod +apache +lake +jcb +▲topaug +★★★ +ni +##hr +hill +302 +ne +weibo +490 +ruby +##ーシ +##ヶ +##row +4d +▲topjul +iv +##ish +github +306 +mate +312 +##スト +##lot +##ane +andrew +のハイト +##tina +t1 +rf +ed2k +##vel +##900 +way +final +りの +ns +5a +705 +197 +##メ +sweet +bytes +##ene +▲topjan +231 +##cker +##2007 +##px +100g +topapp +229 +helpapp +rs +low +14k +g4g +care +630 +ldquo +あり +##fork +leave +rm +edition +##gan +##zon +##qq +▲topsep +##google +##ism +gold +224 +explorer +##zer +toyota +category +select +visual +##labels +restaurant +##md +posts +s1 +##ico +もっと +angelababy +123456 +217 +sports +s3 +mbc +1915 +してくたさい +shell +x86 +candy +##new +kbs +face +xl +470 +##here +4a +swissinfo +v8 +▲topfeb +dram +##ual +##vice +3a +##wer +sport +q1 +ios10 +public +int +card +##c +ep +au +rt +##れた +1080 +bill +##mll +kim +30 +460 +wan +##uk +##ミ +x3 +298 +0t +scott +##ming +239 +e5 +##3d +h7n9 +worldcat +brown +##あります +##vo +##led +##580 +##ax +249 +410 +##ert +paris +##~6 +polo +925 +##lr +599 +##ナ +capital +##hing +bank +cv +1g +##chat +##s +##たい +adc +##ule +2m +##e +digital +hotmail +268 +##pad +870 +bbq +quot +##ring +before +wali +##まて +mcu +2k +2b +という +costco +316 +north +333 +switch +##city +##p +philips +##mann +management +panasonic +##cl +##vd +##ping +##rge +alice +##lk +##ましょう +css3 +##ney +vision +alpha +##ular +##400 +##tter +lz +にお +##ありません +mode +gre +1916 +pci +##tm +237 +1~2 +##yan +##そ +について +##let +##キ +work +war +coach +ah +mary +##ᅵ +huang +##pt +a8 +pt +follow +##berry +1895 +##ew +a5 +ghost +##ション +##wn +##og +south +##code +girls +##rid +action +villa +git +r11 +table +games +##cket +error +##anonymoussaid +##ag +here +##ame +##gc +qa +##■ +##lis +gmp +##gin +vmalife +##cher +yu +wedding +##tis +demo +dragon +530 +soho +social +bye +##rant +river +orz +acer +325 +##↑ +##ース +##ats +261 +del +##ven +440 +ups +##ように +##ター +305 +value +macd +yougou +##dn +661 +##ano +ll +##urt +##rent +continue +script +##wen +##ect +paper +263 +319 +shift +##chel +##フト +##cat +258 +x5 +fox +243 +##さん +car +aaa +##blog +loading +##yn +##tp +kuso +799 +si +sns +イカせるテンマ +ヒンクテンマ3 +rmb +vdc +forest +central +prime +help +ultra +##rmb +##ような +241 +square +688 +##しい +のないフロクに +##field +##reen +##ors +##ju +c1 +start +510 +##air +##map +cdn +##wo +cba +stephen +m8 +100km +##get +opera +##base +##ood +vsa +com™ +##aw +##ail +251 +なのて +count +t2 +##ᅡ +##een +2700 +hop +##gp +vsc +tree +##eg +##ose +816 +285 +##ories +##shop +alphago +v4 +1909 +simon +##ᆼ +fluke62max +zip +スホンサー +##sta +louis +cr +bas +##~10 +bc +##yer +hadoop +##ube +##wi +1906 +0755 +hola +##low +place +centre +5v +d3 +##fer +252 +##750 +##media +281 +540 +0l +exchange +262 +series +##ハー +##san +eb +##bank +##k +q3 +##nge +##mail +take +##lp +259 +1888 +client +east +cache +event +vincent +##ールを +きを +##nse +sui +855 +adchoice +##и +##stry +##なたの +246 +##zone +ga +apps +sea +##ab +248 +cisco +##タ +##rner +kymco +##care +dha +##pu +##yi +minkoff +royal +p1 +への +annie +269 +collection +kpi +playstation +257 +になります +866 +bh +##bar +queen +505 +radio +1904 +andy +armani +##xy +manager +iherb +##ery +##share +spring +raid +johnson +1908 +##ob +volvo +hall +##ball +v6 +our +taylor +##hk +bi +242 +##cp +kate +bo +water +technology +##rie +サイトは +277 +##ona +##sl +hpv +303 +gtx +hip +rdquo +jayz +stone +##lex +##rum +namespace +##やり +620 +##ale +##atic +des +##erson +##ql +##ves +##type +enter +##この +##てきます +d2 +##168 +##mix +##bian +との +a9 +jj +ky +##lc +access +movie +##hc +リストに +tower +##ration +##mit +ます +##nch +ua +tel +prefix +##o2 +1907 +##point +1901 +ott +~10 +##http +##ury +baidu +##ink +member +##logy +bigbang +nownews +##js +##shot +##tb +##こと +247 +eba +##tics +##lus +ける +v5 +spark +##ama +there +##ions +god +##lls +##down +hiv +##ress +burberry +day2 +##kv +◆◆ +jeff +related +film +edit +joseph +283 +##ark +cx +32gb +order +g9 +30000 +##ans +##tty +s5 +##bee +かあります +thread +xr +buy +sh +005 +land +spotify +mx +##ari +276 +##verse +×email +sf +why +##ことて +244 +7headlines +nego +sunny +dom +exo +401 +666 +positioning +fit +rgb +##tton +278 +kiss +alexa +adam +lp +みリストを +##g +mp +##ties +##llow +amy +##du +np +002 +institute +271 +##rth +##lar +2345 +590 +##des +sidebar +15 +imax +site +##cky +##kit +##ime +##009 +season +323 +##fun +##ンター +##ひ +gogoro +a7 +pu +lily +fire +twd600 +##ッセーシを +いて +##vis +30ml +##cture +##をお +information +##オ +close +friday +##くれる +yi +nick +てすか +##tta +##tel +6500 +##lock +cbd +economy +254 +かお +267 +tinker +double +375 +8gb +voice +##app +oops +channel +today +985 +##right +raw +xyz +##+ +jim +edm +##cent +7500 +supreme +814 +ds +##its +##asia +dropbox +##てすか +##tti +books +272 +100ml +##tle +##ller +##ken +##more +##boy +sex +309 +##dom +t3 +##ider +##なります +##unch +1903 +810 +feel +5500 +##かった +##put +により +s2 +mo +##gh +men +ka +amoled +div +##tr +##n1 +port +howard +##tags +ken +dnf +##nus +adsense +##а +ide +##へ +buff +thunder +##town +##ique +has +##body +auto +pin +##erry +tee +てした +295 +number +##the +##013 +object +psp +cool +udnbkk +16gb +##mic +miui +##tro +most +r2 +##alk +##nity +1880 +±0 +##いました +428 +s4 +law +version +##oa +n1 +sgs +docomo +##tf +##ack +henry +fc2 +##ded +##sco +##014 +##rite +286 +0mm +linkedin +##ada +##now +wii +##ndy +ucbug +##◎ +sputniknews +legalminer +##ika +##xp +2gb +##bu +q10 +oo +b6 +come +##rman +cheese +ming +maker +##gm +nikon +##fig +ppi +kelly +##ります +jchere +てきます +ted +md +003 +fgo +tech +##tto +dan +soc +##gl +##len +hair +earth +640 +521 +img +##pper +##a1 +##てきる +##ロク +acca +##ition +##ference +suite +##ig +outlook +##mond +##cation +398 +##pr +279 +101vip +358 +##999 +282 +64gb +3800 +345 +airport +##over +284 +##おり +jones +##ith +lab +##su +##いるのて +co2 +town +piece +##llo +no1 +vmware +24h +##qi +focus +reader +##admin +##ora +tb +false +##log +1898 +know +lan +838 +##ces +f4 +##ume +motel +stop +##oper +na +flickr +netcomponents +##af +##─ +pose +williams +local +##ound +##cg +##site +##iko +いお +274 +5m +gsm +con +##ath +1902 +friends +##hip +cell +317 +##rey +780 +cream +##cks +012 +##dp +facebooktwitterpinterestgoogle +sso +324 +shtml +song +swiss +##mw +##キンク +lumia +xdd +string +tiffany +522 +marc +られた +insee +russell +sc +dell +##ations +ok +camera +289 +##vs +##flow +##late +classic +287 +##nter +stay +g1 +mtv +512 +##ever +##lab +##nger +qe +sata +ryan +d1 +50ml +cms +##cing +su +292 +3300 +editor +296 +##nap +security +sunday +association +##ens +##700 +##bra +acg +##かり +sofascore +とは +mkv +##ign +jonathan +gary +build +labels +##oto +tesla +moba +qi +gohappy +general +ajax +1024 +##かる +サイト +society +##test +##urs +wps +fedora +##ich +mozilla +328 +##480 +##dr +usa +urn +##lina +##r +grace +##die +##try +##ader +1250 +##なり +elle +570 +##chen +##ᆯ +price +##ten +uhz +##ough +eq +##hen +states +push +session +balance +wow +506 +##cus +##py +when +##ward +##ep +34e +wong +library +prada +##サイト +##cle +running +##ree +313 +ck +date +q4 +##ctive +##ool +##> +mk +##ira +##163 +388 +die +secret +rq +dota +buffet +は1ヶ +e6 +##ez +pan +368 +ha +##card +##cha +2a +##さ +alan +day3 +eye +f3 +##end +france +keep +adi +rna +tvbs +##ala +solo +nova +##え +##tail +##ょう +support +##ries +##なる +##ved +base +copy +iis +fps +##ways +hero +hgih +profile +fish +mu +ssh +entertainment +chang +##wd +click +cake +##ond +pre +##tom +kic +pixel +##ov +##fl +product +6a +##pd +dear +##gate +es +yumi +audio +##² +##sky +echo +bin +where +##ture +329 +##ape +find +sap +isis +##なと +nand +##101 +##load +##ream +band +a6 +525 +never +##post +festival +50cm +##we +555 +guide +314 +zenfone +##ike +335 +gd +forum +jessica +strong +alexander +##ould +software +allen +##ious +program +360° +else +lohasthree +##gar +することかてきます +please +##れます +rc +##ggle +##ric +bim +50000 +##own +eclipse +355 +brian +3ds +##side +061 +361 +##other +##ける +##tech +##ator +485 +engine +##ged +##t +plaza +##fit +cia +ngo +westbrook +shi +tbs +50mm +##みませんか +sci +291 +reuters +##ily +contextlink +##hn +af +##cil +bridge +very +##cel +1890 +cambridge +##ize +15g +##aid +##data +790 +frm +##head +award +butler +##sun +meta +##mar +america +ps3 +puma +pmid +##すか +lc +670 +kitchen +##lic +オーフン5 +きなしソフトサーヒス +そして +day1 +future +★★★★ +##text +##page +##rris +pm1 +##ket +fans +##っています +1001 +christian +bot +kids +trackback +##hai +c3 +display +##hl +n2 +1896 +idea +さんも +##sent +airmail +##ug +##men +pwm +けます +028 +##lution +369 +852 +awards +schemas +354 +asics +wikipedia +font +##tional +##vy +c2 +293 +##れている +##dget +##ein +っている +contact +pepper +スキル +339 +##~5 +294 +##uel +##ument +730 +##hang +みてす +q5 +##sue +rain +##ndi +wei +swatch +##cept +わせ +331 +popular +##ste +##tag +p2 +501 +trc +1899 +##west +##live +justin +honda +ping +messenger +##rap +v9 +543 +##とは +unity +appqq +はすへて +025 +leo +##tone +##テ +##ass +uniqlo +##010 +502 +her +jane +memory +moneydj +##tical +human +12306 +していると +##m2 +coc +miacare +##mn +tmt +##core +vim +kk +##may +fan +target +use +too +338 +435 +2050 +867 +737 +fast +##2c +services +##ope +omega +energy +##わ +pinkoi +1a +##なから +##rain +jackson +##ement +##シャンルの +374 +366 +そんな +p9 +rd +##ᆨ +1111 +##tier +##vic +zone +##│ +385 +690 +dl +isofix +cpa +m4 +322 +kimi +めて +davis +##lay +lulu +##uck +050 +weeks +qs +##hop +920 +##n +ae +##ear +~5 +eia +405 +##fly +korea +jpeg +boost +##ship +small +##リア +1860 +eur +297 +425 +valley +##iel +simple +##ude +rn +k2 +##ena +されます +non +patrick +しているから +##ナー +feed +5757 +30g +process +well +qqmei +##thing +they +aws +lu +pink +##ters +##kin +または +board +##vertisement +wine +##ien +unicode +##dge +r1 +359 +##tant +いを +##twitter +##3c +cool1 +される +##れて +##l +isp +##012 +standard +45㎡2 +402 +##150 +matt +##fu +326 +##iner +googlemsn +pixnetfacebookyahoo +##ラン +x7 +886 +##uce +メーカー +sao +##ev +##きました +##file +9678 +403 +xddd +shirt +6l +##rio +##hat +3mm +givenchy +ya +bang +##lio +monday +crystal +ロクイン +##abc +336 +head +890 +ubuntuforumwikilinuxpastechat +##vc +##~20 +##rity +cnc +7866 +ipv6 +null +1897 +##ost +yang +imsean +tiger +##fet +##ンス +352 +##= +dji +327 +ji +maria +##come +##んて +foundation +3100 +##beth +##なった +1m +601 +active +##aft +##don +3p +sr +349 +emma +##khz +living +415 +353 +1889 +341 +709 +457 +sas +x6 +##face +pptv +x4 +##mate +han +sophie +##jing +337 +fifa +##mand +other +sale +inwedding +##gn +てきちゃいます +##mmy +##pmlast +bad +nana +nbc +してみてくたさいね +なとはお +##wu +##かあります +##あ +note7 +single +##340 +せからこ +してくたさい♪この +しにはとんとんワークケートを +するとあなたにもっとマッチした +ならワークケートへ +もみつかっちゃうかも +ワークケートの +##bel +window +##dio +##ht +union +age +382 +14 +##ivity +##y +コメント +domain +neo +##isa +##lter +5k +f5 +steven +##cts +powerpoint +tft +self +g2 +ft +##テル +zol +##act +mwc +381 +343 +もう +nbapop +408 +てある +eds +ace +##room +previous +author +tomtom +il +##ets +hu +financial +☆☆☆ +っています +bp +5t +chi +1gb +##hg +fairmont +cross +008 +gay +h2 +function +##けて +356 +also +1b +625 +##ータ +##raph +1894 +3~5 +##ils +i3 +334 +avenue +##host +による +##bon +##tsu +message +navigation +50g +fintech +h6 +##ことを +8cm +##ject +##vas +##firm +credit +##wf +xxxx +form +##nor +##space +huawei +plan +json +sbl +##dc +machine +921 +392 +wish +##120 +##sol +windows7 +edward +##ために +development +washington +##nsis +lo +818 +##sio +##ym +##bor +planet +##~8 +##wt +ieee +gpa +##めて +camp +ann +gm +##tw +##oka +connect +##rss +##work +##atus +wall +chicken +soul +2mm +##times +fa +##ather +##cord +009 +##eep +hitachi +gui +harry +##pan +e1 +disney +##press +##ーション +wind +386 +frigidaire +##tl +liu +hsu +332 +basic +von +ev +いた +てきる +スホンサーサイト +learning +##ull +expedia +archives +change +##wei +santa +cut +ins +6gb +turbo +brand +cf1 +508 +004 +return +747 +##rip +h1 +##nis +##をこ +128gb +##にお +3t +application +しており +emc +rx +##oon +384 +quick +412 +15058 +wilson +wing +chapter +##bug +beyond +##cms +##dar +##oh +zoom +e2 +trip +sb +##nba +rcep +342 +aspx +ci +080 +gc +gnu +める +##count +advanced +dance +dv +##url +##ging +367 +8591 +am09 +shadow +battle +346 +##i +##cia +##という +emily +##のてす +##tation +host +ff +techorz +sars +##mini +##mporary +##ering +nc +4200 +798 +##next +cma +##mbps +##gas +##ift +##dot +##ィ +455 +##~17 +amana +##りの +426 +##ros +ir +00㎡1 +##eet +##ible +##↓ +710 +ˋ▽ˊ +##aka +dcs +iq +##v +l1 +##lor +maggie +##011 +##iu +588 +##~1 +830 +##gt +1tb +articles +create +##burg +##iki +database +fantasy +##rex +##cam +dlc +dean +##you +hard +path +gaming +victoria +maps +cb +##lee +##itor +overchicstoretvhome +systems +##xt +416 +p3 +sarah +760 +##nan +407 +486 +x9 +install +second +626 +##ann +##ph +##rcle +##nic +860 +##nar +ec +##とう +768 +metro +chocolate +##rian +~4 +##table +##しています +skin +##sn +395 +mountain +##0mm +inparadise +6m +7x24 +ib +4800 +##jia +eeworld +creative +g5 +g3 +357 +parker +ecfa +village +からの +18000 +sylvia +サーヒス +hbl +##ques +##onsored +##x2 +##きます +##v4 +##tein +ie6 +383 +##stack +389 +ver +##ads +##baby +sound +bbe +##110 +##lone +##uid +ads +022 +gundam +351 +thinkpad +006 +scrum +match +##ave +mems +##470 +##oy +##なりました +##talk +glass +lamigo +span +##eme +job +##a5 +jay +wade +kde +498 +##lace +ocean +tvg +##covery +##r3 +##ners +##rea +junior +think +##aine +cover +##ision +##sia +↓↓ +##bow +msi +413 +458 +406 +##love +711 +801 +soft +z2 +##pl +456 +1840 +mobil +mind +##uy +427 +nginx +##oi +めた +##rr +6221 +##mple +##sson +##ーシてす +371 +##nts +91tv +comhd +crv3000 +##uard +1868 +397 +deep +lost +field +gallery +##bia +rate +spf +redis +traction +930 +icloud +011 +なら +fe +jose +372 +##tory +into +sohu +fx +899 +379 +kicstart2 +##hia +すく +##~3 +##sit +ra +24 +##walk +##xure +500g +##pact +pacific +xa +natural +carlo +##250 +##walker +1850 +##can +cto +gigi +516 +##サー +pen +##hoo +ob +matlab +##b +##yy +13913459 +##iti +mango +##bbs +sense +c5 +oxford +##ニア +walker +jennifer +##ola +course +##bre +701 +##pus +##rder +lucky +075 +##ぁ +ivy +なお +##nia +sotheby +side +##ugh +joy +##orage +##ush +##bat +##dt +364 +r9 +##2d +##gio +511 +country +wear +##lax +##~7 +##moon +393 +seven +study +411 +348 +lonzo +8k +##ェ +evolution +##イフ +##kk +gs +kd +##レス +arduino +344 +b12 +##lux +arpg +##rdon +cook +##x5 +dark +five +##als +##ida +とても +sign +362 +##ちの +something +20mm +##nda +387 +##posted +fresh +tf +1870 +422 +cam +##mine +##skip +##form +##ssion +education +394 +##tee +dyson +stage +##jie +want +##night +epson +pack +あります +##ppy +テリヘル +##█ +wd +##eh +##rence +left +##lvin +golden +mhz +discovery +##trix +##n2 +loft +##uch +##dra +##sse +speed +~1 +1mdb +sorry +welcome +##urn +wave +gaga +##lmer +teddy +##160 +トラックハック +せよ +611 +##f2016 +378 +rp +##sha +rar +##あなたに +##きた +840 +holiday +##ュー +373 +074 +##vg +##nos +##rail +gartner +gi +6p +##dium +kit +488 +b3 +eco +##ろう +20g +sean +##stone +autocad +nu +##np +f16 +write +029 +m5 +##ias +images +atp +##dk +fsm +504 +1350 +ve +52kb +##xxx +##のに +##cake +414 +unit +lim +ru +1v +##ification +published +angela +16g +analytics +ak +##q +##nel +gmt +##icon +again +##₂ +##bby +ios11 +445 +かこさいます +waze +いてす +##ハ +9985 +##ust +##ティー +framework +##007 +iptv +delete +52sykb +cl +wwdc +027 +30cm +##fw +##ての +1389 +##xon +brandt +##ses +##dragon +tc +vetements +anne +monte +modern +official +##へて +##ere +##nne +##oud +もちろん +50 +etnews +##a2 +##graphy +421 +863 +##ちゃん +444 +##rtex +##てお +l2 +##gma +mount +ccd +たと +archive +morning +tan +ddos +e7 +##ホ +day4 +##ウ +gis +453 +its +495 +factory +bruce +pg +##ito +ってくたさい +guest +cdma +##lling +536 +n3 +しかし +3~4 +mega +eyes +ro +13 +women +dac +church +##jun +singapore +##facebook +6991 +starbucks +##tos +##stin +##shine +zen +##mu +tina +20℃ +1893 +##たけて +503 +465 +request +##gence +qt +##っ +1886 +347 +363 +q7 +##zzi +diary +##tore +409 +##ead +468 +cst +##osa +canada +agent +va +##jiang +##ちは +##ーク +##lam +sg +##nix +##sday +##よって +g6 +##master +bing +##zl +charlie +16 +8mm +nb40 +##ーン +thai +##ルフ +ln284ct +##itz +##2f +bonnie +##food +##lent +originals +##stro +##lts +418 +∟∣ +##bscribe +children +ntd +yesstyle +##かも +hmv +##tment +d5 +2cm +arts +sms +##pn +##я +##いい +topios9 +539 +lifestyle +virtual +##ague +xz +##deo +muji +024 +unt +##nnis +##ᅩ +faq1 +1884 +396 +##ette +fly +64㎡ +はしめまして +441 +curry +##pop +のこ +release +##← +##◆◆ +##cast +073 +ありな +500ml +##ews +5c +##stle +ios7 +##ima +787 +dog +lenovo +##r4 +roger +013 +cbs +vornado +100m +417 +##desk +##クok +##ald +1867 +9595 +2900 +##van +oil +##x +some +break +common +##jy +##lines +g7 +twice +419 +ella +nano +belle +にこ +##mes +##self +##note +jb +##ことかてきます +benz +##との +##ova +451 +save +##wing +##ますのて +kai +りは +##hua +##rect +rainer +##unge +448 +##0m +adsl +##かな +guestname +##uma +##kins +##zu +tokichoi +##price +county +##med +##mus +rmk +391 +address +vm +えて +openload +##group +##hin +##iginal +amg +urban +##oz +jobs +emi +##public +beautiful +##sch +album +##dden +##bell +jerry +works +hostel +miller +##drive +##rmin +##10 +376 +boot +828 +##370 +##fx +##cm~ +1885 +##nome +##ctionary +##oman +##lish +##cr +##hm +433 +##how +432 +francis +xi +c919 +b5 +evernote +##uc +vga +##3000 +coupe +##urg +##cca +##uality +019 +6g +れる +multi +##また +##ett +em +hey +##ani +##tax +##rma +inside +than +740 +leonnhurt +##jin +ict +れた +bird +notes +200mm +くの +##dical +##lli +result +442 +iu +ee +438 +smap +gopro +##last +yin +pure +998 +32g +けた +5kg +##dan +##rame +mama +##oot +bean +marketing +##hur +2l +bella +sync +xuite +##ground +515 +discuz +##getrelax +##ince +##bay +##5s +cj +##イス +gmat +apt +##pass +jing +##rix +c4 +rich +##とても +niusnews +##ello +bag +770 +##eting +##mobile +18 +culture +015 +##のてすか +377 +1020 +area +##ience +616 +details +gp +universal +silver +dit +はお +private +ddd +u11 +kanshu +##ified +fung +##nny +dx +##520 +tai +475 +023 +##fr +##lean +3s +##pin +429 +##rin +25000 +ly +rick +##bility +usb3 +banner +##baru +##gion +metal +dt +vdf +1871 +karl +qualcomm +bear +1010 +oldid +ian +jo +##tors +population +##ernel +1882 +mmorpg +##mv +##bike +603 +##© +ww +friend +##ager +exhibition +##del +##pods +fpx +structure +##free +##tings +kl +##rley +##copyright +##mma +california +3400 +orange +yoga +4l +canmake +honey +##anda +##コメント +595 +nikkie +##ルハイト +dhl +publishing +##mall +##gnet +20cm +513 +##クセス +##┅ +e88 +970 +##dog +fishbase +##! +##" +### +##$ +##% +##& +##' +##( +##) +##* +##+ +##, +##- +##. +##/ +##: +##; +##< +##= +##> +##? +##@ +##[ +##\ +##] +##^ +##_ +##{ +##| +##} +##~ +##£ +##¤ +##¥ +##§ +##« +##± +##³ +##µ +##· +##¹ +##º +##» +##¼ +##ß +##æ +##÷ +##ø +##đ +##ŋ +##ɔ +##ə +##ɡ +##ʰ +##ˇ +##ˈ +##ˊ +##ˋ +##ˍ +##ː +##˙ +##˚ +##ˢ +##α +##β +##γ +##δ +##ε +##η +##θ +##ι +##κ +##λ +##μ +##ν +##ο +##π +##ρ +##ς +##σ +##τ +##υ +##φ +##χ +##ψ +##б +##в +##г +##д +##е +##ж +##з +##к +##л +##м +##н +##о +##п +##р +##с +##т +##у +##ф +##х +##ц +##ч +##ш +##ы +##ь +##і +##ا +##ب +##ة +##ت +##د +##ر +##س +##ع +##ل +##م +##ن +##ه +##و +##ي +##۩ +##ก +##ง +##น +##ม +##ย +##ร +##อ +##า +##เ +##๑ +##་ +##ღ +##ᄀ +##ᄁ +##ᄂ +##ᄃ +##ᄅ +##ᄆ +##ᄇ +##ᄈ +##ᄉ +##ᄋ +##ᄌ +##ᄎ +##ᄏ +##ᄐ +##ᄑ +##ᄒ +##ᅢ +##ᅣ +##ᅥ +##ᅦ +##ᅧ +##ᅨ +##ᅪ +##ᅬ +##ᅭ +##ᅮ +##ᅯ +##ᅲ +##ᅳ +##ᅴ +##ᆷ +##ᆸ +##ᆺ +##ᆻ +##ᗜ +##ᵃ +##ᵉ +##ᵍ +##ᵏ +##ᵐ +##ᵒ +##ᵘ +##‖ +##„ +##† +##• +##‥ +##‧ +##
 +##‰ +##′ +##″ +##‹ +##› +##※ +##‿ +##⁄ +##ⁱ +##⁺ +##ⁿ +##₁ +##₃ +##₄ +##€ +##№ +##ⅰ +##ⅱ +##ⅲ +##ⅳ +##ⅴ +##↔ +##↗ +##↘ +##⇒ +##∀ +##− +##∕ +##∙ +##√ +##∞ +##∟ +##∠ +##∣ +##∩ +##∮ +##∶ +##∼ +##∽ +##≈ +##≒ +##≡ +##≤ +##≥ +##≦ +##≧ +##≪ +##≫ +##⊙ +##⋅ +##⋈ +##⋯ +##⌒ +##① +##② +##③ +##④ +##⑤ +##⑥ +##⑦ +##⑧ +##⑨ +##⑩ +##⑴ +##⑵ +##⑶ +##⑷ +##⑸ +##⒈ +##⒉ +##⒊ +##⒋ +##ⓒ +##ⓔ +##ⓘ +##━ +##┃ +##┆ +##┊ +##┌ +##└ +##├ +##┣ +##═ +##║ +##╚ +##╞ +##╠ +##╭ +##╮ +##╯ +##╰ +##╱ +##╳ +##▂ +##▃ +##▅ +##▇ +##▉ +##▋ +##▌ +##▍ +##▎ +##□ +##▪ +##▫ +##▬ +##△ +##▶ +##► +##▽ +##◇ +##◕ +##◠ +##◢ +##◤ +##☀ +##☕ +##☞ +##☺ +##☼ +##♀ +##♂ +##♠ +##♡ +##♣ +##♦ +##♫ +##♬ +##✈ +##✔ +##✕ +##✖ +##✦ +##✨ +##✪ +##✰ +##✿ +##❀ +##➜ +##➤ +##⦿ +##、 +##。 +##〃 +##々 +##〇 +##〈 +##〉 +##《 +##》 +##「 +##」 +##『 +##』 +##【 +##】 +##〓 +##〔 +##〕 +##〖 +##〗 +##〜 +##〝 +##〞 +##ぃ +##ぇ +##ぬ +##ふ +##ほ +##む +##ゃ +##ゅ +##ゆ +##ょ +##゜ +##ゝ +##ァ +##ゥ +##エ +##ォ +##ケ +##サ +##セ +##ソ +##ッ +##ニ +##ヌ +##ネ +##ノ +##ヘ +##モ +##ャ +##ヤ +##ュ +##ユ +##ョ +##ヨ +##ワ +##ヲ +##・ +##ヽ +##ㄅ +##ㄆ +##ㄇ +##ㄉ +##ㄋ +##ㄌ +##ㄍ +##ㄎ +##ㄏ +##ㄒ +##ㄚ +##ㄛ +##ㄞ +##ㄟ +##ㄢ +##ㄤ +##ㄥ +##ㄧ +##ㄨ +##ㆍ +##㈦ +##㊣ +##㗎 +##一 +##丁 +##七 +##万 +##丈 +##三 +##上 +##下 +##不 +##与 +##丐 +##丑 +##专 +##且 +##丕 +##世 +##丘 +##丙 +##业 +##丛 +##东 +##丝 +##丞 +##丟 +##両 +##丢 +##两 +##严 +##並 +##丧 +##丨 +##个 +##丫 +##中 +##丰 +##串 +##临 +##丶 +##丸 +##丹 +##为 +##主 +##丼 +##丽 +##举 +##丿 +##乂 +##乃 +##久 +##么 +##义 +##之 +##乌 +##乍 +##乎 +##乏 +##乐 +##乒 +##乓 +##乔 +##乖 +##乗 +##乘 +##乙 +##乜 +##九 +##乞 +##也 +##习 +##乡 +##书 +##乩 +##买 +##乱 +##乳 +##乾 +##亀 +##亂 +##了 +##予 +##争 +##事 +##二 +##于 +##亏 +##云 +##互 +##五 +##井 +##亘 +##亙 +##亚 +##些 +##亜 +##亞 +##亟 +##亡 +##亢 +##交 +##亥 +##亦 +##产 +##亨 +##亩 +##享 +##京 +##亭 +##亮 +##亲 +##亳 +##亵 +##人 +##亿 +##什 +##仁 +##仃 +##仄 +##仅 +##仆 +##仇 +##今 +##介 +##仍 +##从 +##仏 +##仑 +##仓 +##仔 +##仕 +##他 +##仗 +##付 +##仙 +##仝 +##仞 +##仟 +##代 +##令 +##以 +##仨 +##仪 +##们 +##仮 +##仰 +##仲 +##件 +##价 +##任 +##份 +##仿 +##企 +##伉 +##伊 +##伍 +##伎 +##伏 +##伐 +##休 +##伕 +##众 +##优 +##伙 +##会 +##伝 +##伞 +##伟 +##传 +##伢 +##伤 +##伦 +##伪 +##伫 +##伯 +##估 +##伴 +##伶 +##伸 +##伺 +##似 +##伽 +##佃 +##但 +##佇 +##佈 +##位 +##低 +##住 +##佐 +##佑 +##体 +##佔 +##何 +##佗 +##佘 +##余 +##佚 +##佛 +##作 +##佝 +##佞 +##佟 +##你 +##佢 +##佣 +##佤 +##佥 +##佩 +##佬 +##佯 +##佰 +##佳 +##併 +##佶 +##佻 +##佼 +##使 +##侃 +##侄 +##來 +##侈 +##例 +##侍 +##侏 +##侑 +##侖 +##侗 +##供 +##依 +##侠 +##価 +##侣 +##侥 +##侦 +##侧 +##侨 +##侬 +##侮 +##侯 +##侵 +##侶 +##侷 +##便 +##係 +##促 +##俄 +##俊 +##俎 +##俏 +##俐 +##俑 +##俗 +##俘 +##俚 +##保 +##俞 +##俟 +##俠 +##信 +##俨 +##俩 +##俪 +##俬 +##俭 +##修 +##俯 +##俱 +##俳 +##俸 +##俺 +##俾 +##倆 +##倉 +##個 +##倌 +##倍 +##倏 +##們 +##倒 +##倔 +##倖 +##倘 +##候 +##倚 +##倜 +##借 +##倡 +##値 +##倦 +##倩 +##倪 +##倫 +##倬 +##倭 +##倶 +##债 +##值 +##倾 +##偃 +##假 +##偈 +##偉 +##偌 +##偎 +##偏 +##偕 +##做 +##停 +##健 +##側 +##偵 +##偶 +##偷 +##偻 +##偽 +##偿 +##傀 +##傅 +##傍 +##傑 +##傘 +##備 +##傚 +##傢 +##傣 +##傥 +##储 +##傩 +##催 +##傭 +##傲 +##傳 +##債 +##傷 +##傻 +##傾 +##僅 +##働 +##像 +##僑 +##僕 +##僖 +##僚 +##僥 +##僧 +##僭 +##僮 +##僱 +##僵 +##價 +##僻 +##儀 +##儂 +##億 +##儆 +##儉 +##儋 +##儒 +##儕 +##儘 +##償 +##儡 +##優 +##儲 +##儷 +##儼 +##儿 +##兀 +##允 +##元 +##兄 +##充 +##兆 +##兇 +##先 +##光 +##克 +##兌 +##免 +##児 +##兑 +##兒 +##兔 +##兖 +##党 +##兜 +##兢 +##入 +##內 +##全 +##兩 +##八 +##公 +##六 +##兮 +##兰 +##共 +##兲 +##关 +##兴 +##兵 +##其 +##具 +##典 +##兹 +##养 +##兼 +##兽 +##冀 +##内 +##円 +##冇 +##冈 +##冉 +##冊 +##册 +##再 +##冏 +##冒 +##冕 +##冗 +##写 +##军 +##农 +##冠 +##冢 +##冤 +##冥 +##冨 +##冪 +##冬 +##冯 +##冰 +##冲 +##决 +##况 +##冶 +##冷 +##冻 +##冼 +##冽 +##冾 +##净 +##凄 +##准 +##凇 +##凈 +##凉 +##凋 +##凌 +##凍 +##减 +##凑 +##凛 +##凜 +##凝 +##几 +##凡 +##凤 +##処 +##凪 +##凭 +##凯 +##凰 +##凱 +##凳 +##凶 +##凸 +##凹 +##出 +##击 +##函 +##凿 +##刀 +##刁 +##刃 +##分 +##切 +##刈 +##刊 +##刍 +##刎 +##刑 +##划 +##列 +##刘 +##则 +##刚 +##创 +##初 +##删 +##判 +##別 +##刨 +##利 +##刪 +##别 +##刮 +##到 +##制 +##刷 +##券 +##刹 +##刺 +##刻 +##刽 +##剁 +##剂 +##剃 +##則 +##剉 +##削 +##剋 +##剌 +##前 +##剎 +##剐 +##剑 +##剔 +##剖 +##剛 +##剜 +##剝 +##剣 +##剤 +##剥 +##剧 +##剩 +##剪 +##副 +##割 +##創 +##剷 +##剽 +##剿 +##劃 +##劇 +##劈 +##劉 +##劊 +##劍 +##劏 +##劑 +##力 +##劝 +##办 +##功 +##加 +##务 +##劣 +##动 +##助 +##努 +##劫 +##劭 +##励 +##劲 +##劳 +##労 +##劵 +##効 +##劾 +##势 +##勁 +##勃 +##勇 +##勉 +##勋 +##勐 +##勒 +##動 +##勖 +##勘 +##務 +##勛 +##勝 +##勞 +##募 +##勢 +##勤 +##勧 +##勳 +##勵 +##勸 +##勺 +##勻 +##勾 +##勿 +##匀 +##包 +##匆 +##匈 +##匍 +##匐 +##匕 +##化 +##北 +##匙 +##匝 +##匠 +##匡 +##匣 +##匪 +##匮 +##匯 +##匱 +##匹 +##区 +##医 +##匾 +##匿 +##區 +##十 +##千 +##卅 +##升 +##午 +##卉 +##半 +##卍 +##华 +##协 +##卑 +##卒 +##卓 +##協 +##单 +##卖 +##南 +##単 +##博 +##卜 +##卞 +##卟 +##占 +##卡 +##卢 +##卤 +##卦 +##卧 +##卫 +##卮 +##卯 +##印 +##危 +##即 +##却 +##卵 +##卷 +##卸 +##卻 +##卿 +##厂 +##厄 +##厅 +##历 +##厉 +##压 +##厌 +##厕 +##厘 +##厚 +##厝 +##原 +##厢 +##厥 +##厦 +##厨 +##厩 +##厭 +##厮 +##厲 +##厳 +##去 +##县 +##叁 +##参 +##參 +##又 +##叉 +##及 +##友 +##双 +##反 +##収 +##发 +##叔 +##取 +##受 +##变 +##叙 +##叛 +##叟 +##叠 +##叡 +##叢 +##口 +##古 +##句 +##另 +##叨 +##叩 +##只 +##叫 +##召 +##叭 +##叮 +##可 +##台 +##叱 +##史 +##右 +##叵 +##叶 +##号 +##司 +##叹 +##叻 +##叼 +##叽 +##吁 +##吃 +##各 +##吆 +##合 +##吉 +##吊 +##吋 +##同 +##名 +##后 +##吏 +##吐 +##向 +##吒 +##吓 +##吕 +##吖 +##吗 +##君 +##吝 +##吞 +##吟 +##吠 +##吡 +##否 +##吧 +##吨 +##吩 +##含 +##听 +##吭 +##吮 +##启 +##吱 +##吳 +##吴 +##吵 +##吶 +##吸 +##吹 +##吻 +##吼 +##吽 +##吾 +##呀 +##呂 +##呃 +##呆 +##呈 +##告 +##呋 +##呎 +##呐 +##呓 +##呕 +##呗 +##员 +##呛 +##呜 +##呢 +##呤 +##呦 +##周 +##呱 +##呲 +##味 +##呵 +##呷 +##呸 +##呻 +##呼 +##命 +##咀 +##咁 +##咂 +##咄 +##咆 +##咋 +##和 +##咎 +##咏 +##咐 +##咒 +##咔 +##咕 +##咖 +##咗 +##咘 +##咙 +##咚 +##咛 +##咣 +##咤 +##咦 +##咧 +##咨 +##咩 +##咪 +##咫 +##咬 +##咭 +##咯 +##咱 +##咲 +##咳 +##咸 +##咻 +##咽 +##咿 +##哀 +##品 +##哂 +##哄 +##哆 +##哇 +##哈 +##哉 +##哋 +##哌 +##响 +##哎 +##哏 +##哐 +##哑 +##哒 +##哔 +##哗 +##哟 +##員 +##哥 +##哦 +##哧 +##哨 +##哩 +##哪 +##哭 +##哮 +##哲 +##哺 +##哼 +##哽 +##唁 +##唄 +##唆 +##唇 +##唉 +##唏 +##唐 +##唑 +##唔 +##唠 +##唤 +##唧 +##唬 +##售 +##唯 +##唰 +##唱 +##唳 +##唷 +##唸 +##唾 +##啃 +##啄 +##商 +##啉 +##啊 +##問 +##啓 +##啕 +##啖 +##啜 +##啞 +##啟 +##啡 +##啤 +##啥 +##啦 +##啧 +##啪 +##啫 +##啬 +##啮 +##啰 +##啱 +##啲 +##啵 +##啶 +##啷 +##啸 +##啻 +##啼 +##啾 +##喀 +##喂 +##喃 +##善 +##喆 +##喇 +##喉 +##喊 +##喋 +##喎 +##喏 +##喔 +##喘 +##喙 +##喚 +##喜 +##喝 +##喟 +##喧 +##喪 +##喫 +##喬 +##單 +##喰 +##喱 +##喲 +##喳 +##喵 +##営 +##喷 +##喹 +##喺 +##喻 +##喽 +##嗅 +##嗆 +##嗇 +##嗎 +##嗑 +##嗒 +##嗓 +##嗔 +##嗖 +##嗚 +##嗜 +##嗝 +##嗟 +##嗡 +##嗣 +##嗤 +##嗦 +##嗨 +##嗪 +##嗬 +##嗯 +##嗰 +##嗲 +##嗳 +##嗶 +##嗷 +##嗽 +##嘀 +##嘅 +##嘆 +##嘈 +##嘉 +##嘌 +##嘍 +##嘎 +##嘔 +##嘖 +##嘗 +##嘘 +##嘚 +##嘛 +##嘜 +##嘞 +##嘟 +##嘢 +##嘣 +##嘤 +##嘧 +##嘩 +##嘭 +##嘮 +##嘯 +##嘰 +##嘱 +##嘲 +##嘴 +##嘶 +##嘸 +##嘹 +##嘻 +##嘿 +##噁 +##噌 +##噎 +##噓 +##噔 +##噗 +##噙 +##噜 +##噠 +##噢 +##噤 +##器 +##噩 +##噪 +##噬 +##噱 +##噴 +##噶 +##噸 +##噹 +##噻 +##噼 +##嚀 +##嚇 +##嚎 +##嚏 +##嚐 +##嚓 +##嚕 +##嚟 +##嚣 +##嚥 +##嚨 +##嚮 +##嚴 +##嚷 +##嚼 +##囂 +##囉 +##囊 +##囍 +##囑 +##囔 +##囗 +##囚 +##四 +##囝 +##回 +##囟 +##因 +##囡 +##团 +##団 +##囤 +##囧 +##囪 +##囫 +##园 +##困 +##囱 +##囲 +##図 +##围 +##囹 +##固 +##国 +##图 +##囿 +##圃 +##圄 +##圆 +##圈 +##國 +##圍 +##圏 +##園 +##圓 +##圖 +##團 +##圜 +##土 +##圣 +##圧 +##在 +##圩 +##圭 +##地 +##圳 +##场 +##圻 +##圾 +##址 +##坂 +##均 +##坊 +##坍 +##坎 +##坏 +##坐 +##坑 +##块 +##坚 +##坛 +##坝 +##坞 +##坟 +##坠 +##坡 +##坤 +##坦 +##坨 +##坪 +##坯 +##坳 +##坵 +##坷 +##垂 +##垃 +##垄 +##型 +##垒 +##垚 +##垛 +##垠 +##垢 +##垣 +##垦 +##垩 +##垫 +##垭 +##垮 +##垵 +##埂 +##埃 +##埋 +##城 +##埔 +##埕 +##埗 +##域 +##埠 +##埤 +##埵 +##執 +##埸 +##培 +##基 +##埼 +##堀 +##堂 +##堃 +##堅 +##堆 +##堇 +##堑 +##堕 +##堙 +##堡 +##堤 +##堪 +##堯 +##堰 +##報 +##場 +##堵 +##堺 +##堿 +##塊 +##塌 +##塑 +##塔 +##塗 +##塘 +##塚 +##塞 +##塢 +##塩 +##填 +##塬 +##塭 +##塵 +##塾 +##墀 +##境 +##墅 +##墉 +##墊 +##墒 +##墓 +##増 +##墘 +##墙 +##墜 +##增 +##墟 +##墨 +##墩 +##墮 +##墳 +##墻 +##墾 +##壁 +##壅 +##壆 +##壇 +##壊 +##壑 +##壓 +##壕 +##壘 +##壞 +##壟 +##壢 +##壤 +##壩 +##士 +##壬 +##壮 +##壯 +##声 +##売 +##壳 +##壶 +##壹 +##壺 +##壽 +##处 +##备 +##変 +##复 +##夏 +##夔 +##夕 +##外 +##夙 +##多 +##夜 +##够 +##夠 +##夢 +##夥 +##大 +##天 +##太 +##夫 +##夭 +##央 +##夯 +##失 +##头 +##夷 +##夸 +##夹 +##夺 +##夾 +##奂 +##奄 +##奇 +##奈 +##奉 +##奋 +##奎 +##奏 +##奐 +##契 +##奔 +##奕 +##奖 +##套 +##奘 +##奚 +##奠 +##奢 +##奥 +##奧 +##奪 +##奬 +##奮 +##女 +##奴 +##奶 +##奸 +##她 +##好 +##如 +##妃 +##妄 +##妆 +##妇 +##妈 +##妊 +##妍 +##妒 +##妓 +##妖 +##妘 +##妙 +##妝 +##妞 +##妣 +##妤 +##妥 +##妨 +##妩 +##妪 +##妮 +##妲 +##妳 +##妹 +##妻 +##妾 +##姆 +##姉 +##姊 +##始 +##姍 +##姐 +##姑 +##姒 +##姓 +##委 +##姗 +##姚 +##姜 +##姝 +##姣 +##姥 +##姦 +##姨 +##姪 +##姫 +##姬 +##姹 +##姻 +##姿 +##威 +##娃 +##娄 +##娅 +##娆 +##娇 +##娉 +##娑 +##娓 +##娘 +##娛 +##娜 +##娟 +##娠 +##娣 +##娥 +##娩 +##娱 +##娲 +##娴 +##娶 +##娼 +##婀 +##婁 +##婆 +##婉 +##婊 +##婕 +##婚 +##婢 +##婦 +##婧 +##婪 +##婭 +##婴 +##婵 +##婶 +##婷 +##婺 +##婿 +##媒 +##媚 +##媛 +##媞 +##媧 +##媲 +##媳 +##媽 +##媾 +##嫁 +##嫂 +##嫉 +##嫌 +##嫑 +##嫔 +##嫖 +##嫘 +##嫚 +##嫡 +##嫣 +##嫦 +##嫩 +##嫲 +##嫵 +##嫻 +##嬅 +##嬉 +##嬌 +##嬗 +##嬛 +##嬢 +##嬤 +##嬪 +##嬰 +##嬴 +##嬷 +##嬸 +##嬿 +##孀 +##孃 +##子 +##孑 +##孔 +##孕 +##孖 +##字 +##存 +##孙 +##孚 +##孛 +##孜 +##孝 +##孟 +##孢 +##季 +##孤 +##学 +##孩 +##孪 +##孫 +##孬 +##孰 +##孱 +##孳 +##孵 +##學 +##孺 +##孽 +##孿 +##宁 +##它 +##宅 +##宇 +##守 +##安 +##宋 +##完 +##宏 +##宓 +##宕 +##宗 +##官 +##宙 +##定 +##宛 +##宜 +##宝 +##实 +##実 +##宠 +##审 +##客 +##宣 +##室 +##宥 +##宦 +##宪 +##宫 +##宮 +##宰 +##害 +##宴 +##宵 +##家 +##宸 +##容 +##宽 +##宾 +##宿 +##寂 +##寄 +##寅 +##密 +##寇 +##富 +##寐 +##寒 +##寓 +##寛 +##寝 +##寞 +##察 +##寡 +##寢 +##寥 +##實 +##寧 +##寨 +##審 +##寫 +##寬 +##寮 +##寰 +##寵 +##寶 +##寸 +##对 +##寺 +##寻 +##导 +##対 +##寿 +##封 +##専 +##射 +##将 +##將 +##專 +##尉 +##尊 +##尋 +##對 +##導 +##小 +##少 +##尔 +##尕 +##尖 +##尘 +##尚 +##尝 +##尤 +##尧 +##尬 +##就 +##尴 +##尷 +##尸 +##尹 +##尺 +##尻 +##尼 +##尽 +##尾 +##尿 +##局 +##屁 +##层 +##屄 +##居 +##屆 +##屈 +##屉 +##届 +##屋 +##屌 +##屍 +##屎 +##屏 +##屐 +##屑 +##展 +##屜 +##属 +##屠 +##屡 +##屢 +##層 +##履 +##屬 +##屯 +##山 +##屹 +##屿 +##岀 +##岁 +##岂 +##岌 +##岐 +##岑 +##岔 +##岖 +##岗 +##岘 +##岙 +##岚 +##岛 +##岡 +##岩 +##岫 +##岬 +##岭 +##岱 +##岳 +##岷 +##岸 +##峇 +##峋 +##峒 +##峙 +##峡 +##峤 +##峥 +##峦 +##峨 +##峪 +##峭 +##峯 +##峰 +##峴 +##島 +##峻 +##峽 +##崁 +##崂 +##崆 +##崇 +##崎 +##崑 +##崔 +##崖 +##崗 +##崙 +##崛 +##崧 +##崩 +##崭 +##崴 +##崽 +##嵇 +##嵊 +##嵋 +##嵌 +##嵐 +##嵘 +##嵩 +##嵬 +##嵯 +##嶂 +##嶄 +##嶇 +##嶋 +##嶙 +##嶺 +##嶼 +##嶽 +##巅 +##巍 +##巒 +##巔 +##巖 +##川 +##州 +##巡 +##巢 +##工 +##左 +##巧 +##巨 +##巩 +##巫 +##差 +##己 +##已 +##巳 +##巴 +##巷 +##巻 +##巽 +##巾 +##巿 +##币 +##市 +##布 +##帅 +##帆 +##师 +##希 +##帐 +##帑 +##帕 +##帖 +##帘 +##帚 +##帛 +##帜 +##帝 +##帥 +##带 +##帧 +##師 +##席 +##帮 +##帯 +##帰 +##帳 +##帶 +##帷 +##常 +##帼 +##帽 +##幀 +##幂 +##幄 +##幅 +##幌 +##幔 +##幕 +##幟 +##幡 +##幢 +##幣 +##幫 +##干 +##平 +##年 +##并 +##幸 +##幹 +##幺 +##幻 +##幼 +##幽 +##幾 +##广 +##庁 +##広 +##庄 +##庆 +##庇 +##床 +##序 +##庐 +##库 +##应 +##底 +##庖 +##店 +##庙 +##庚 +##府 +##庞 +##废 +##庠 +##度 +##座 +##庫 +##庭 +##庵 +##庶 +##康 +##庸 +##庹 +##庾 +##廁 +##廂 +##廃 +##廈 +##廉 +##廊 +##廓 +##廖 +##廚 +##廝 +##廟 +##廠 +##廢 +##廣 +##廬 +##廳 +##延 +##廷 +##建 +##廿 +##开 +##弁 +##异 +##弃 +##弄 +##弈 +##弊 +##弋 +##式 +##弑 +##弒 +##弓 +##弔 +##引 +##弗 +##弘 +##弛 +##弟 +##张 +##弥 +##弦 +##弧 +##弩 +##弭 +##弯 +##弱 +##張 +##強 +##弹 +##强 +##弼 +##弾 +##彅 +##彆 +##彈 +##彌 +##彎 +##归 +##当 +##录 +##彗 +##彙 +##彝 +##形 +##彤 +##彥 +##彦 +##彧 +##彩 +##彪 +##彫 +##彬 +##彭 +##彰 +##影 +##彷 +##役 +##彻 +##彼 +##彿 +##往 +##征 +##径 +##待 +##徇 +##很 +##徉 +##徊 +##律 +##後 +##徐 +##徑 +##徒 +##従 +##徕 +##得 +##徘 +##徙 +##徜 +##從 +##徠 +##御 +##徨 +##復 +##循 +##徬 +##微 +##徳 +##徴 +##徵 +##德 +##徹 +##徼 +##徽 +##心 +##必 +##忆 +##忌 +##忍 +##忏 +##忐 +##忑 +##忒 +##忖 +##志 +##忘 +##忙 +##応 +##忠 +##忡 +##忤 +##忧 +##忪 +##快 +##忱 +##念 +##忻 +##忽 +##忿 +##怀 +##态 +##怂 +##怅 +##怆 +##怎 +##怏 +##怒 +##怔 +##怕 +##怖 +##怙 +##怜 +##思 +##怠 +##怡 +##急 +##怦 +##性 +##怨 +##怪 +##怯 +##怵 +##总 +##怼 +##恁 +##恃 +##恆 +##恋 +##恍 +##恐 +##恒 +##恕 +##恙 +##恚 +##恢 +##恣 +##恤 +##恥 +##恨 +##恩 +##恪 +##恫 +##恬 +##恭 +##息 +##恰 +##恳 +##恵 +##恶 +##恸 +##恺 +##恻 +##恼 +##恿 +##悄 +##悅 +##悉 +##悌 +##悍 +##悔 +##悖 +##悚 +##悟 +##悠 +##患 +##悦 +##您 +##悩 +##悪 +##悬 +##悯 +##悱 +##悲 +##悴 +##悵 +##悶 +##悸 +##悻 +##悼 +##悽 +##情 +##惆 +##惇 +##惊 +##惋 +##惑 +##惕 +##惘 +##惚 +##惜 +##惟 +##惠 +##惡 +##惦 +##惧 +##惨 +##惩 +##惫 +##惬 +##惭 +##惮 +##惯 +##惰 +##惱 +##想 +##惴 +##惶 +##惹 +##惺 +##愁 +##愆 +##愈 +##愉 +##愍 +##意 +##愕 +##愚 +##愛 +##愜 +##感 +##愣 +##愤 +##愧 +##愫 +##愷 +##愿 +##慄 +##慈 +##態 +##慌 +##慎 +##慑 +##慕 +##慘 +##慚 +##慟 +##慢 +##慣 +##慧 +##慨 +##慫 +##慮 +##慰 +##慳 +##慵 +##慶 +##慷 +##慾 +##憂 +##憊 +##憋 +##憎 +##憐 +##憑 +##憔 +##憚 +##憤 +##憧 +##憨 +##憩 +##憫 +##憬 +##憲 +##憶 +##憾 +##懂 +##懇 +##懈 +##應 +##懊 +##懋 +##懑 +##懒 +##懦 +##懲 +##懵 +##懶 +##懷 +##懸 +##懺 +##懼 +##懾 +##懿 +##戀 +##戈 +##戊 +##戌 +##戍 +##戎 +##戏 +##成 +##我 +##戒 +##戕 +##或 +##战 +##戚 +##戛 +##戟 +##戡 +##戦 +##截 +##戬 +##戮 +##戰 +##戲 +##戳 +##戴 +##戶 +##户 +##戸 +##戻 +##戾 +##房 +##所 +##扁 +##扇 +##扈 +##扉 +##手 +##才 +##扎 +##扑 +##扒 +##打 +##扔 +##払 +##托 +##扛 +##扣 +##扦 +##执 +##扩 +##扪 +##扫 +##扬 +##扭 +##扮 +##扯 +##扰 +##扱 +##扳 +##扶 +##批 +##扼 +##找 +##承 +##技 +##抄 +##抉 +##把 +##抑 +##抒 +##抓 +##投 +##抖 +##抗 +##折 +##抚 +##抛 +##抜 +##択 +##抟 +##抠 +##抡 +##抢 +##护 +##报 +##抨 +##披 +##抬 +##抱 +##抵 +##抹 +##押 +##抽 +##抿 +##拂 +##拄 +##担 +##拆 +##拇 +##拈 +##拉 +##拋 +##拌 +##拍 +##拎 +##拐 +##拒 +##拓 +##拔 +##拖 +##拗 +##拘 +##拙 +##拚 +##招 +##拜 +##拟 +##拡 +##拢 +##拣 +##拥 +##拦 +##拧 +##拨 +##择 +##括 +##拭 +##拮 +##拯 +##拱 +##拳 +##拴 +##拷 +##拼 +##拽 +##拾 +##拿 +##持 +##挂 +##指 +##挈 +##按 +##挎 +##挑 +##挖 +##挙 +##挚 +##挛 +##挝 +##挞 +##挟 +##挠 +##挡 +##挣 +##挤 +##挥 +##挨 +##挪 +##挫 +##振 +##挲 +##挹 +##挺 +##挽 +##挾 +##捂 +##捅 +##捆 +##捉 +##捋 +##捌 +##捍 +##捎 +##捏 +##捐 +##捕 +##捞 +##损 +##捡 +##换 +##捣 +##捧 +##捨 +##捩 +##据 +##捱 +##捲 +##捶 +##捷 +##捺 +##捻 +##掀 +##掂 +##掃 +##掇 +##授 +##掉 +##掌 +##掏 +##掐 +##排 +##掖 +##掘 +##掙 +##掛 +##掠 +##採 +##探 +##掣 +##接 +##控 +##推 +##掩 +##措 +##掬 +##掰 +##掲 +##掳 +##掴 +##掷 +##掸 +##掺 +##揀 +##揃 +##揄 +##揆 +##揉 +##揍 +##描 +##提 +##插 +##揖 +##揚 +##換 +##握 +##揣 +##揩 +##揪 +##揭 +##揮 +##援 +##揶 +##揸 +##揹 +##揽 +##搀 +##搁 +##搂 +##搅 +##損 +##搏 +##搐 +##搓 +##搔 +##搖 +##搗 +##搜 +##搞 +##搡 +##搪 +##搬 +##搭 +##搵 +##搶 +##携 +##搽 +##摀 +##摁 +##摄 +##摆 +##摇 +##摈 +##摊 +##摒 +##摔 +##摘 +##摞 +##摟 +##摧 +##摩 +##摯 +##摳 +##摸 +##摹 +##摺 +##摻 +##撂 +##撃 +##撅 +##撇 +##撈 +##撐 +##撑 +##撒 +##撓 +##撕 +##撚 +##撞 +##撤 +##撥 +##撩 +##撫 +##撬 +##播 +##撮 +##撰 +##撲 +##撵 +##撷 +##撸 +##撻 +##撼 +##撿 +##擀 +##擁 +##擂 +##擄 +##擅 +##擇 +##擊 +##擋 +##操 +##擎 +##擒 +##擔 +##擘 +##據 +##擞 +##擠 +##擡 +##擢 +##擦 +##擬 +##擰 +##擱 +##擲 +##擴 +##擷 +##擺 +##擼 +##擾 +##攀 +##攏 +##攒 +##攔 +##攘 +##攙 +##攜 +##攝 +##攞 +##攢 +##攣 +##攤 +##攥 +##攪 +##攫 +##攬 +##支 +##收 +##攸 +##改 +##攻 +##放 +##政 +##故 +##效 +##敌 +##敍 +##敎 +##敏 +##救 +##敕 +##敖 +##敗 +##敘 +##教 +##敛 +##敝 +##敞 +##敢 +##散 +##敦 +##敬 +##数 +##敲 +##整 +##敵 +##敷 +##數 +##斂 +##斃 +##文 +##斋 +##斌 +##斎 +##斐 +##斑 +##斓 +##斗 +##料 +##斛 +##斜 +##斟 +##斡 +##斤 +##斥 +##斧 +##斩 +##斫 +##斬 +##断 +##斯 +##新 +##斷 +##方 +##於 +##施 +##旁 +##旃 +##旅 +##旋 +##旌 +##旎 +##族 +##旖 +##旗 +##无 +##既 +##日 +##旦 +##旧 +##旨 +##早 +##旬 +##旭 +##旮 +##旱 +##时 +##旷 +##旺 +##旻 +##昀 +##昂 +##昆 +##昇 +##昉 +##昊 +##昌 +##明 +##昏 +##易 +##昔 +##昕 +##昙 +##星 +##映 +##春 +##昧 +##昨 +##昭 +##是 +##昱 +##昴 +##昵 +##昶 +##昼 +##显 +##晁 +##時 +##晃 +##晉 +##晋 +##晌 +##晏 +##晒 +##晓 +##晔 +##晕 +##晖 +##晗 +##晚 +##晝 +##晞 +##晟 +##晤 +##晦 +##晨 +##晩 +##普 +##景 +##晰 +##晴 +##晶 +##晷 +##智 +##晾 +##暂 +##暄 +##暇 +##暈 +##暉 +##暌 +##暐 +##暑 +##暖 +##暗 +##暝 +##暢 +##暧 +##暨 +##暫 +##暮 +##暱 +##暴 +##暸 +##暹 +##曄 +##曆 +##曇 +##曉 +##曖 +##曙 +##曜 +##曝 +##曠 +##曦 +##曬 +##曰 +##曲 +##曳 +##更 +##書 +##曹 +##曼 +##曾 +##替 +##最 +##會 +##月 +##有 +##朋 +##服 +##朐 +##朔 +##朕 +##朗 +##望 +##朝 +##期 +##朦 +##朧 +##木 +##未 +##末 +##本 +##札 +##朮 +##术 +##朱 +##朴 +##朵 +##机 +##朽 +##杀 +##杂 +##权 +##杆 +##杈 +##杉 +##李 +##杏 +##材 +##村 +##杓 +##杖 +##杜 +##杞 +##束 +##杠 +##条 +##来 +##杨 +##杭 +##杯 +##杰 +##東 +##杳 +##杵 +##杷 +##杼 +##松 +##板 +##极 +##构 +##枇 +##枉 +##枋 +##析 +##枕 +##林 +##枚 +##果 +##枝 +##枢 +##枣 +##枪 +##枫 +##枭 +##枯 +##枰 +##枱 +##枳 +##架 +##枷 +##枸 +##柄 +##柏 +##某 +##柑 +##柒 +##染 +##柔 +##柘 +##柚 +##柜 +##柞 +##柠 +##柢 +##查 +##柩 +##柬 +##柯 +##柱 +##柳 +##柴 +##柵 +##査 +##柿 +##栀 +##栃 +##栄 +##栅 +##标 +##栈 +##栉 +##栋 +##栎 +##栏 +##树 +##栓 +##栖 +##栗 +##校 +##栩 +##株 +##样 +##核 +##根 +##格 +##栽 +##栾 +##桀 +##桁 +##桂 +##桃 +##桅 +##框 +##案 +##桉 +##桌 +##桎 +##桐 +##桑 +##桓 +##桔 +##桜 +##桠 +##桡 +##桢 +##档 +##桥 +##桦 +##桧 +##桨 +##桩 +##桶 +##桿 +##梁 +##梅 +##梆 +##梏 +##梓 +##梗 +##條 +##梟 +##梢 +##梦 +##梧 +##梨 +##梭 +##梯 +##械 +##梳 +##梵 +##梶 +##检 +##棂 +##棄 +##棉 +##棋 +##棍 +##棒 +##棕 +##棗 +##棘 +##棚 +##棟 +##棠 +##棣 +##棧 +##森 +##棱 +##棲 +##棵 +##棹 +##棺 +##椁 +##椅 +##椋 +##植 +##椎 +##椒 +##検 +##椪 +##椭 +##椰 +##椹 +##椽 +##椿 +##楂 +##楊 +##楓 +##楔 +##楚 +##楝 +##楞 +##楠 +##楣 +##楨 +##楫 +##業 +##楮 +##極 +##楷 +##楸 +##楹 +##楼 +##楽 +##概 +##榄 +##榆 +##榈 +##榉 +##榔 +##榕 +##榖 +##榛 +##榜 +##榨 +##榫 +##榭 +##榮 +##榱 +##榴 +##榷 +##榻 +##槁 +##槃 +##構 +##槌 +##槍 +##槎 +##槐 +##槓 +##様 +##槛 +##槟 +##槤 +##槭 +##槲 +##槳 +##槻 +##槽 +##槿 +##樁 +##樂 +##樊 +##樑 +##樓 +##標 +##樞 +##樟 +##模 +##樣 +##権 +##横 +##樫 +##樯 +##樱 +##樵 +##樸 +##樹 +##樺 +##樽 +##樾 +##橄 +##橇 +##橋 +##橐 +##橘 +##橙 +##機 +##橡 +##橢 +##橫 +##橱 +##橹 +##橼 +##檀 +##檄 +##檎 +##檐 +##檔 +##檗 +##檜 +##檢 +##檬 +##檯 +##檳 +##檸 +##檻 +##櫃 +##櫚 +##櫛 +##櫥 +##櫸 +##櫻 +##欄 +##權 +##欒 +##欖 +##欠 +##次 +##欢 +##欣 +##欧 +##欲 +##欸 +##欺 +##欽 +##款 +##歆 +##歇 +##歉 +##歌 +##歎 +##歐 +##歓 +##歙 +##歛 +##歡 +##止 +##正 +##此 +##步 +##武 +##歧 +##歩 +##歪 +##歯 +##歲 +##歳 +##歴 +##歷 +##歸 +##歹 +##死 +##歼 +##殁 +##殃 +##殆 +##殇 +##殉 +##殊 +##残 +##殒 +##殓 +##殖 +##殘 +##殞 +##殡 +##殤 +##殭 +##殯 +##殲 +##殴 +##段 +##殷 +##殺 +##殼 +##殿 +##毀 +##毁 +##毂 +##毅 +##毆 +##毋 +##母 +##毎 +##每 +##毒 +##毓 +##比 +##毕 +##毗 +##毘 +##毙 +##毛 +##毡 +##毫 +##毯 +##毽 +##氈 +##氏 +##氐 +##民 +##氓 +##气 +##氖 +##気 +##氙 +##氛 +##氟 +##氡 +##氢 +##氣 +##氤 +##氦 +##氧 +##氨 +##氪 +##氫 +##氮 +##氯 +##氰 +##氲 +##水 +##氷 +##永 +##氹 +##氾 +##汀 +##汁 +##求 +##汆 +##汇 +##汉 +##汎 +##汐 +##汕 +##汗 +##汙 +##汛 +##汝 +##汞 +##江 +##池 +##污 +##汤 +##汨 +##汩 +##汪 +##汰 +##汲 +##汴 +##汶 +##汹 +##決 +##汽 +##汾 +##沁 +##沂 +##沃 +##沅 +##沈 +##沉 +##沌 +##沏 +##沐 +##沒 +##沓 +##沖 +##沙 +##沛 +##沟 +##没 +##沢 +##沣 +##沥 +##沦 +##沧 +##沪 +##沫 +##沭 +##沮 +##沱 +##河 +##沸 +##油 +##治 +##沼 +##沽 +##沾 +##沿 +##況 +##泄 +##泉 +##泊 +##泌 +##泓 +##法 +##泗 +##泛 +##泞 +##泠 +##泡 +##波 +##泣 +##泥 +##注 +##泪 +##泫 +##泮 +##泯 +##泰 +##泱 +##泳 +##泵 +##泷 +##泸 +##泻 +##泼 +##泽 +##泾 +##洁 +##洄 +##洋 +##洒 +##洗 +##洙 +##洛 +##洞 +##津 +##洩 +##洪 +##洮 +##洱 +##洲 +##洵 +##洶 +##洸 +##洹 +##活 +##洼 +##洽 +##派 +##流 +##浃 +##浄 +##浅 +##浆 +##浇 +##浊 +##测 +##济 +##浏 +##浑 +##浒 +##浓 +##浔 +##浙 +##浚 +##浜 +##浣 +##浦 +##浩 +##浪 +##浬 +##浮 +##浯 +##浴 +##海 +##浸 +##涂 +##涅 +##涇 +##消 +##涉 +##涌 +##涎 +##涓 +##涔 +##涕 +##涙 +##涛 +##涝 +##涞 +##涟 +##涠 +##涡 +##涣 +##涤 +##润 +##涧 +##涨 +##涩 +##涪 +##涮 +##涯 +##液 +##涵 +##涸 +##涼 +##涿 +##淀 +##淄 +##淅 +##淆 +##淇 +##淋 +##淌 +##淑 +##淒 +##淖 +##淘 +##淙 +##淚 +##淞 +##淡 +##淤 +##淦 +##淨 +##淩 +##淪 +##淫 +##淬 +##淮 +##深 +##淳 +##淵 +##混 +##淹 +##淺 +##添 +##淼 +##清 +##済 +##渉 +##渊 +##渋 +##渍 +##渎 +##渐 +##渔 +##渗 +##渙 +##渚 +##減 +##渝 +##渠 +##渡 +##渣 +##渤 +##渥 +##渦 +##温 +##測 +##渭 +##港 +##渲 +##渴 +##游 +##渺 +##渾 +##湃 +##湄 +##湊 +##湍 +##湖 +##湘 +##湛 +##湟 +##湧 +##湫 +##湮 +##湯 +##湳 +##湾 +##湿 +##満 +##溃 +##溅 +##溉 +##溏 +##源 +##準 +##溜 +##溝 +##溟 +##溢 +##溥 +##溧 +##溪 +##溫 +##溯 +##溱 +##溴 +##溶 +##溺 +##溼 +##滁 +##滂 +##滄 +##滅 +##滇 +##滋 +##滌 +##滑 +##滓 +##滔 +##滕 +##滙 +##滚 +##滝 +##滞 +##滟 +##满 +##滢 +##滤 +##滥 +##滦 +##滨 +##滩 +##滬 +##滯 +##滲 +##滴 +##滷 +##滸 +##滾 +##滿 +##漁 +##漂 +##漆 +##漉 +##漏 +##漓 +##演 +##漕 +##漠 +##漢 +##漣 +##漩 +##漪 +##漫 +##漬 +##漯 +##漱 +##漲 +##漳 +##漸 +##漾 +##漿 +##潆 +##潇 +##潋 +##潍 +##潑 +##潔 +##潘 +##潛 +##潜 +##潞 +##潟 +##潢 +##潤 +##潦 +##潧 +##潭 +##潮 +##潰 +##潴 +##潸 +##潺 +##潼 +##澀 +##澄 +##澆 +##澈 +##澍 +##澎 +##澗 +##澜 +##澡 +##澤 +##澧 +##澱 +##澳 +##澹 +##激 +##濁 +##濂 +##濃 +##濑 +##濒 +##濕 +##濘 +##濛 +##濟 +##濠 +##濡 +##濤 +##濫 +##濬 +##濮 +##濯 +##濱 +##濺 +##濾 +##瀅 +##瀆 +##瀉 +##瀋 +##瀏 +##瀑 +##瀕 +##瀘 +##瀚 +##瀛 +##瀝 +##瀞 +##瀟 +##瀧 +##瀨 +##瀬 +##瀰 +##瀾 +##灌 +##灏 +##灑 +##灘 +##灝 +##灞 +##灣 +##火 +##灬 +##灭 +##灯 +##灰 +##灵 +##灶 +##灸 +##灼 +##災 +##灾 +##灿 +##炀 +##炁 +##炅 +##炉 +##炊 +##炎 +##炒 +##炔 +##炕 +##炖 +##炙 +##炜 +##炫 +##炬 +##炭 +##炮 +##炯 +##炳 +##炷 +##炸 +##点 +##為 +##炼 +##炽 +##烁 +##烂 +##烃 +##烈 +##烊 +##烏 +##烘 +##烙 +##烛 +##烟 +##烤 +##烦 +##烧 +##烨 +##烩 +##烫 +##烬 +##热 +##烯 +##烷 +##烹 +##烽 +##焉 +##焊 +##焕 +##焖 +##焗 +##焘 +##焙 +##焚 +##焜 +##無 +##焦 +##焯 +##焰 +##焱 +##然 +##焼 +##煅 +##煉 +##煊 +##煌 +##煎 +##煒 +##煖 +##煙 +##煜 +##煞 +##煤 +##煥 +##煦 +##照 +##煨 +##煩 +##煮 +##煲 +##煸 +##煽 +##熄 +##熊 +##熏 +##熒 +##熔 +##熙 +##熟 +##熠 +##熨 +##熬 +##熱 +##熵 +##熹 +##熾 +##燁 +##燃 +##燄 +##燈 +##燉 +##燊 +##燎 +##燒 +##燔 +##燕 +##燙 +##燜 +##營 +##燥 +##燦 +##燧 +##燭 +##燮 +##燴 +##燻 +##燼 +##燿 +##爆 +##爍 +##爐 +##爛 +##爪 +##爬 +##爭 +##爰 +##爱 +##爲 +##爵 +##父 +##爷 +##爸 +##爹 +##爺 +##爻 +##爽 +##爾 +##牆 +##片 +##版 +##牌 +##牍 +##牒 +##牙 +##牛 +##牝 +##牟 +##牠 +##牡 +##牢 +##牦 +##牧 +##物 +##牯 +##牲 +##牴 +##牵 +##特 +##牺 +##牽 +##犀 +##犁 +##犄 +##犊 +##犍 +##犒 +##犢 +##犧 +##犬 +##犯 +##状 +##犷 +##犸 +##犹 +##狀 +##狂 +##狄 +##狈 +##狎 +##狐 +##狒 +##狗 +##狙 +##狞 +##狠 +##狡 +##狩 +##独 +##狭 +##狮 +##狰 +##狱 +##狸 +##狹 +##狼 +##狽 +##猎 +##猕 +##猖 +##猗 +##猙 +##猛 +##猜 +##猝 +##猥 +##猩 +##猪 +##猫 +##猬 +##献 +##猴 +##猶 +##猷 +##猾 +##猿 +##獄 +##獅 +##獎 +##獐 +##獒 +##獗 +##獠 +##獣 +##獨 +##獭 +##獰 +##獲 +##獵 +##獷 +##獸 +##獺 +##獻 +##獼 +##獾 +##玄 +##率 +##玉 +##王 +##玑 +##玖 +##玛 +##玟 +##玠 +##玥 +##玩 +##玫 +##玮 +##环 +##现 +##玲 +##玳 +##玷 +##玺 +##玻 +##珀 +##珂 +##珅 +##珈 +##珉 +##珊 +##珍 +##珏 +##珐 +##珑 +##珙 +##珞 +##珠 +##珣 +##珥 +##珩 +##珪 +##班 +##珮 +##珲 +##珺 +##現 +##球 +##琅 +##理 +##琇 +##琉 +##琊 +##琍 +##琏 +##琐 +##琛 +##琢 +##琥 +##琦 +##琨 +##琪 +##琬 +##琮 +##琰 +##琲 +##琳 +##琴 +##琵 +##琶 +##琺 +##琼 +##瑀 +##瑁 +##瑄 +##瑋 +##瑕 +##瑗 +##瑙 +##瑚 +##瑛 +##瑜 +##瑞 +##瑟 +##瑠 +##瑣 +##瑤 +##瑩 +##瑪 +##瑯 +##瑰 +##瑶 +##瑾 +##璀 +##璁 +##璃 +##璇 +##璉 +##璋 +##璎 +##璐 +##璜 +##璞 +##璟 +##璧 +##璨 +##環 +##璽 +##璿 +##瓊 +##瓏 +##瓒 +##瓜 +##瓢 +##瓣 +##瓤 +##瓦 +##瓮 +##瓯 +##瓴 +##瓶 +##瓷 +##甄 +##甌 +##甕 +##甘 +##甙 +##甚 +##甜 +##生 +##產 +##産 +##甥 +##甦 +##用 +##甩 +##甫 +##甬 +##甭 +##甯 +##田 +##由 +##甲 +##申 +##电 +##男 +##甸 +##町 +##画 +##甾 +##畀 +##畅 +##界 +##畏 +##畑 +##畔 +##留 +##畜 +##畝 +##畢 +##略 +##畦 +##番 +##畫 +##異 +##畲 +##畳 +##畴 +##當 +##畸 +##畹 +##畿 +##疆 +##疇 +##疊 +##疏 +##疑 +##疔 +##疖 +##疗 +##疙 +##疚 +##疝 +##疟 +##疡 +##疣 +##疤 +##疥 +##疫 +##疮 +##疯 +##疱 +##疲 +##疳 +##疵 +##疸 +##疹 +##疼 +##疽 +##疾 +##痂 +##病 +##症 +##痈 +##痉 +##痊 +##痍 +##痒 +##痔 +##痕 +##痘 +##痙 +##痛 +##痞 +##痠 +##痢 +##痣 +##痤 +##痧 +##痨 +##痪 +##痫 +##痰 +##痱 +##痴 +##痹 +##痺 +##痼 +##痿 +##瘀 +##瘁 +##瘋 +##瘍 +##瘓 +##瘘 +##瘙 +##瘟 +##瘠 +##瘡 +##瘢 +##瘤 +##瘦 +##瘧 +##瘩 +##瘪 +##瘫 +##瘴 +##瘸 +##瘾 +##療 +##癇 +##癌 +##癒 +##癖 +##癜 +##癞 +##癡 +##癢 +##癣 +##癥 +##癫 +##癬 +##癮 +##癱 +##癲 +##癸 +##発 +##登 +##發 +##白 +##百 +##皂 +##的 +##皆 +##皇 +##皈 +##皋 +##皎 +##皑 +##皓 +##皖 +##皙 +##皚 +##皮 +##皰 +##皱 +##皴 +##皺 +##皿 +##盂 +##盃 +##盅 +##盆 +##盈 +##益 +##盎 +##盏 +##盐 +##监 +##盒 +##盔 +##盖 +##盗 +##盘 +##盛 +##盜 +##盞 +##盟 +##盡 +##監 +##盤 +##盥 +##盧 +##盪 +##目 +##盯 +##盱 +##盲 +##直 +##相 +##盹 +##盼 +##盾 +##省 +##眈 +##眉 +##看 +##県 +##眙 +##眞 +##真 +##眠 +##眦 +##眨 +##眩 +##眯 +##眶 +##眷 +##眸 +##眺 +##眼 +##眾 +##着 +##睁 +##睇 +##睏 +##睐 +##睑 +##睛 +##睜 +##睞 +##睡 +##睢 +##督 +##睥 +##睦 +##睨 +##睪 +##睫 +##睬 +##睹 +##睽 +##睾 +##睿 +##瞄 +##瞅 +##瞇 +##瞋 +##瞌 +##瞎 +##瞑 +##瞒 +##瞓 +##瞞 +##瞟 +##瞠 +##瞥 +##瞧 +##瞩 +##瞪 +##瞬 +##瞭 +##瞰 +##瞳 +##瞻 +##瞼 +##瞿 +##矇 +##矍 +##矗 +##矚 +##矛 +##矜 +##矢 +##矣 +##知 +##矩 +##矫 +##短 +##矮 +##矯 +##石 +##矶 +##矽 +##矾 +##矿 +##码 +##砂 +##砌 +##砍 +##砒 +##研 +##砖 +##砗 +##砚 +##砝 +##砣 +##砥 +##砧 +##砭 +##砰 +##砲 +##破 +##砷 +##砸 +##砺 +##砼 +##砾 +##础 +##硅 +##硐 +##硒 +##硕 +##硝 +##硫 +##硬 +##确 +##硯 +##硼 +##碁 +##碇 +##碉 +##碌 +##碍 +##碎 +##碑 +##碓 +##碗 +##碘 +##碚 +##碛 +##碟 +##碣 +##碧 +##碩 +##碰 +##碱 +##碳 +##碴 +##確 +##碼 +##碾 +##磁 +##磅 +##磊 +##磋 +##磐 +##磕 +##磚 +##磡 +##磨 +##磬 +##磯 +##磲 +##磷 +##磺 +##礁 +##礎 +##礙 +##礡 +##礦 +##礪 +##礫 +##礴 +##示 +##礼 +##社 +##祀 +##祁 +##祂 +##祇 +##祈 +##祉 +##祎 +##祐 +##祕 +##祖 +##祗 +##祚 +##祛 +##祜 +##祝 +##神 +##祟 +##祠 +##祢 +##祥 +##票 +##祭 +##祯 +##祷 +##祸 +##祺 +##祿 +##禀 +##禁 +##禄 +##禅 +##禍 +##禎 +##福 +##禛 +##禦 +##禧 +##禪 +##禮 +##禱 +##禹 +##禺 +##离 +##禽 +##禾 +##禿 +##秀 +##私 +##秃 +##秆 +##秉 +##秋 +##种 +##科 +##秒 +##秘 +##租 +##秣 +##秤 +##秦 +##秧 +##秩 +##秭 +##积 +##称 +##秸 +##移 +##秽 +##稀 +##稅 +##程 +##稍 +##税 +##稔 +##稗 +##稚 +##稜 +##稞 +##稟 +##稠 +##稣 +##種 +##稱 +##稲 +##稳 +##稷 +##稹 +##稻 +##稼 +##稽 +##稿 +##穀 +##穂 +##穆 +##穌 +##積 +##穎 +##穗 +##穢 +##穩 +##穫 +##穴 +##究 +##穷 +##穹 +##空 +##穿 +##突 +##窃 +##窄 +##窈 +##窍 +##窑 +##窒 +##窓 +##窕 +##窖 +##窗 +##窘 +##窜 +##窝 +##窟 +##窠 +##窥 +##窦 +##窨 +##窩 +##窪 +##窮 +##窯 +##窺 +##窿 +##竄 +##竅 +##竇 +##竊 +##立 +##竖 +##站 +##竜 +##竞 +##竟 +##章 +##竣 +##童 +##竭 +##端 +##競 +##竹 +##竺 +##竽 +##竿 +##笃 +##笆 +##笈 +##笋 +##笏 +##笑 +##笔 +##笙 +##笛 +##笞 +##笠 +##符 +##笨 +##第 +##笹 +##笺 +##笼 +##筆 +##等 +##筊 +##筋 +##筍 +##筏 +##筐 +##筑 +##筒 +##答 +##策 +##筛 +##筝 +##筠 +##筱 +##筲 +##筵 +##筷 +##筹 +##签 +##简 +##箇 +##箋 +##箍 +##箏 +##箐 +##箔 +##箕 +##算 +##箝 +##管 +##箩 +##箫 +##箭 +##箱 +##箴 +##箸 +##節 +##篁 +##範 +##篆 +##篇 +##築 +##篑 +##篓 +##篙 +##篝 +##篠 +##篡 +##篤 +##篩 +##篪 +##篮 +##篱 +##篷 +##簇 +##簌 +##簍 +##簡 +##簦 +##簧 +##簪 +##簫 +##簷 +##簸 +##簽 +##簾 +##簿 +##籁 +##籃 +##籌 +##籍 +##籐 +##籟 +##籠 +##籤 +##籬 +##籮 +##籲 +##米 +##类 +##籼 +##籽 +##粄 +##粉 +##粑 +##粒 +##粕 +##粗 +##粘 +##粟 +##粤 +##粥 +##粧 +##粪 +##粮 +##粱 +##粲 +##粳 +##粵 +##粹 +##粼 +##粽 +##精 +##粿 +##糅 +##糊 +##糍 +##糕 +##糖 +##糗 +##糙 +##糜 +##糞 +##糟 +##糠 +##糧 +##糬 +##糯 +##糰 +##糸 +##系 +##糾 +##紀 +##紂 +##約 +##紅 +##紉 +##紊 +##紋 +##納 +##紐 +##紓 +##純 +##紗 +##紘 +##紙 +##級 +##紛 +##紜 +##素 +##紡 +##索 +##紧 +##紫 +##紮 +##累 +##細 +##紳 +##紹 +##紺 +##終 +##絃 +##組 +##絆 +##経 +##結 +##絕 +##絞 +##絡 +##絢 +##給 +##絨 +##絮 +##統 +##絲 +##絳 +##絵 +##絶 +##絹 +##綁 +##綏 +##綑 +##經 +##継 +##続 +##綜 +##綠 +##綢 +##綦 +##綫 +##綬 +##維 +##綱 +##網 +##綴 +##綵 +##綸 +##綺 +##綻 +##綽 +##綾 +##綿 +##緊 +##緋 +##総 +##緑 +##緒 +##緘 +##線 +##緝 +##緞 +##締 +##緣 +##編 +##緩 +##緬 +##緯 +##練 +##緹 +##緻 +##縁 +##縄 +##縈 +##縛 +##縝 +##縣 +##縫 +##縮 +##縱 +##縴 +##縷 +##總 +##績 +##繁 +##繃 +##繆 +##繇 +##繋 +##織 +##繕 +##繚 +##繞 +##繡 +##繩 +##繪 +##繫 +##繭 +##繳 +##繹 +##繼 +##繽 +##纂 +##續 +##纍 +##纏 +##纓 +##纔 +##纖 +##纜 +##纠 +##红 +##纣 +##纤 +##约 +##级 +##纨 +##纪 +##纫 +##纬 +##纭 +##纯 +##纰 +##纱 +##纲 +##纳 +##纵 +##纶 +##纷 +##纸 +##纹 +##纺 +##纽 +##纾 +##线 +##绀 +##练 +##组 +##绅 +##细 +##织 +##终 +##绊 +##绍 +##绎 +##经 +##绑 +##绒 +##结 +##绔 +##绕 +##绘 +##给 +##绚 +##绛 +##络 +##绝 +##绞 +##统 +##绡 +##绢 +##绣 +##绥 +##绦 +##继 +##绩 +##绪 +##绫 +##续 +##绮 +##绯 +##绰 +##绳 +##维 +##绵 +##绶 +##绷 +##绸 +##绻 +##综 +##绽 +##绾 +##绿 +##缀 +##缄 +##缅 +##缆 +##缇 +##缈 +##缉 +##缎 +##缓 +##缔 +##缕 +##编 +##缘 +##缙 +##缚 +##缜 +##缝 +##缠 +##缢 +##缤 +##缥 +##缨 +##缩 +##缪 +##缭 +##缮 +##缰 +##缱 +##缴 +##缸 +##缺 +##缽 +##罂 +##罄 +##罌 +##罐 +##网 +##罔 +##罕 +##罗 +##罚 +##罡 +##罢 +##罩 +##罪 +##置 +##罰 +##署 +##罵 +##罷 +##罹 +##羁 +##羅 +##羈 +##羊 +##羌 +##美 +##羔 +##羚 +##羞 +##羟 +##羡 +##羣 +##群 +##羥 +##羧 +##羨 +##義 +##羯 +##羲 +##羸 +##羹 +##羽 +##羿 +##翁 +##翅 +##翊 +##翌 +##翎 +##習 +##翔 +##翘 +##翟 +##翠 +##翡 +##翦 +##翩 +##翰 +##翱 +##翳 +##翹 +##翻 +##翼 +##耀 +##老 +##考 +##耄 +##者 +##耆 +##耋 +##而 +##耍 +##耐 +##耒 +##耕 +##耗 +##耘 +##耙 +##耦 +##耨 +##耳 +##耶 +##耷 +##耸 +##耻 +##耽 +##耿 +##聂 +##聆 +##聊 +##聋 +##职 +##聒 +##联 +##聖 +##聘 +##聚 +##聞 +##聪 +##聯 +##聰 +##聲 +##聳 +##聴 +##聶 +##職 +##聽 +##聾 +##聿 +##肃 +##肄 +##肅 +##肆 +##肇 +##肉 +##肋 +##肌 +##肏 +##肓 +##肖 +##肘 +##肚 +##肛 +##肝 +##肠 +##股 +##肢 +##肤 +##肥 +##肩 +##肪 +##肮 +##肯 +##肱 +##育 +##肴 +##肺 +##肽 +##肾 +##肿 +##胀 +##胁 +##胃 +##胄 +##胆 +##背 +##胍 +##胎 +##胖 +##胚 +##胛 +##胜 +##胝 +##胞 +##胡 +##胤 +##胥 +##胧 +##胫 +##胭 +##胯 +##胰 +##胱 +##胳 +##胴 +##胶 +##胸 +##胺 +##能 +##脂 +##脅 +##脆 +##脇 +##脈 +##脉 +##脊 +##脍 +##脏 +##脐 +##脑 +##脓 +##脖 +##脘 +##脚 +##脛 +##脣 +##脩 +##脫 +##脯 +##脱 +##脲 +##脳 +##脸 +##脹 +##脾 +##腆 +##腈 +##腊 +##腋 +##腌 +##腎 +##腐 +##腑 +##腓 +##腔 +##腕 +##腥 +##腦 +##腩 +##腫 +##腭 +##腮 +##腰 +##腱 +##腳 +##腴 +##腸 +##腹 +##腺 +##腻 +##腼 +##腾 +##腿 +##膀 +##膈 +##膊 +##膏 +##膑 +##膘 +##膚 +##膛 +##膜 +##膝 +##膠 +##膦 +##膨 +##膩 +##膳 +##膺 +##膻 +##膽 +##膾 +##膿 +##臀 +##臂 +##臃 +##臆 +##臉 +##臊 +##臍 +##臓 +##臘 +##臟 +##臣 +##臥 +##臧 +##臨 +##自 +##臬 +##臭 +##至 +##致 +##臺 +##臻 +##臼 +##臾 +##舀 +##舂 +##舅 +##舆 +##與 +##興 +##舉 +##舊 +##舌 +##舍 +##舎 +##舐 +##舒 +##舔 +##舖 +##舗 +##舛 +##舜 +##舞 +##舟 +##航 +##舫 +##般 +##舰 +##舱 +##舵 +##舶 +##舷 +##舸 +##船 +##舺 +##舾 +##艇 +##艋 +##艘 +##艙 +##艦 +##艮 +##良 +##艰 +##艱 +##色 +##艳 +##艷 +##艹 +##艺 +##艾 +##节 +##芃 +##芈 +##芊 +##芋 +##芍 +##芎 +##芒 +##芙 +##芜 +##芝 +##芡 +##芥 +##芦 +##芩 +##芪 +##芫 +##芬 +##芭 +##芮 +##芯 +##花 +##芳 +##芷 +##芸 +##芹 +##芻 +##芽 +##芾 +##苁 +##苄 +##苇 +##苋 +##苍 +##苏 +##苑 +##苒 +##苓 +##苔 +##苕 +##苗 +##苛 +##苜 +##苞 +##苟 +##苡 +##苣 +##若 +##苦 +##苫 +##苯 +##英 +##苷 +##苹 +##苻 +##茁 +##茂 +##范 +##茄 +##茅 +##茉 +##茎 +##茏 +##茗 +##茜 +##茧 +##茨 +##茫 +##茬 +##茭 +##茯 +##茱 +##茲 +##茴 +##茵 +##茶 +##茸 +##茹 +##茼 +##荀 +##荃 +##荆 +##草 +##荊 +##荏 +##荐 +##荒 +##荔 +##荖 +##荘 +##荚 +##荞 +##荟 +##荠 +##荡 +##荣 +##荤 +##荥 +##荧 +##荨 +##荪 +##荫 +##药 +##荳 +##荷 +##荸 +##荻 +##荼 +##荽 +##莅 +##莆 +##莉 +##莊 +##莎 +##莒 +##莓 +##莖 +##莘 +##莞 +##莠 +##莢 +##莧 +##莪 +##莫 +##莱 +##莲 +##莴 +##获 +##莹 +##莺 +##莽 +##莿 +##菀 +##菁 +##菅 +##菇 +##菈 +##菊 +##菌 +##菏 +##菓 +##菖 +##菘 +##菜 +##菟 +##菠 +##菡 +##菩 +##華 +##菱 +##菲 +##菸 +##菽 +##萁 +##萃 +##萄 +##萊 +##萋 +##萌 +##萍 +##萎 +##萘 +##萝 +##萤 +##营 +##萦 +##萧 +##萨 +##萩 +##萬 +##萱 +##萵 +##萸 +##萼 +##落 +##葆 +##葉 +##著 +##葚 +##葛 +##葡 +##董 +##葦 +##葩 +##葫 +##葬 +##葭 +##葯 +##葱 +##葳 +##葵 +##葷 +##葺 +##蒂 +##蒋 +##蒐 +##蒔 +##蒙 +##蒜 +##蒞 +##蒟 +##蒡 +##蒨 +##蒲 +##蒸 +##蒹 +##蒻 +##蒼 +##蒿 +##蓁 +##蓄 +##蓆 +##蓉 +##蓋 +##蓑 +##蓓 +##蓖 +##蓝 +##蓟 +##蓦 +##蓬 +##蓮 +##蓼 +##蓿 +##蔑 +##蔓 +##蔔 +##蔗 +##蔘 +##蔚 +##蔡 +##蔣 +##蔥 +##蔫 +##蔬 +##蔭 +##蔵 +##蔷 +##蔺 +##蔻 +##蔼 +##蔽 +##蕁 +##蕃 +##蕈 +##蕉 +##蕊 +##蕎 +##蕙 +##蕤 +##蕨 +##蕩 +##蕪 +##蕭 +##蕲 +##蕴 +##蕻 +##蕾 +##薄 +##薅 +##薇 +##薈 +##薊 +##薏 +##薑 +##薔 +##薙 +##薛 +##薦 +##薨 +##薩 +##薪 +##薬 +##薯 +##薰 +##薹 +##藉 +##藍 +##藏 +##藐 +##藓 +##藕 +##藜 +##藝 +##藤 +##藥 +##藩 +##藹 +##藻 +##藿 +##蘆 +##蘇 +##蘊 +##蘋 +##蘑 +##蘚 +##蘭 +##蘸 +##蘼 +##蘿 +##虎 +##虏 +##虐 +##虑 +##虔 +##處 +##虚 +##虛 +##虜 +##虞 +##號 +##虢 +##虧 +##虫 +##虬 +##虱 +##虹 +##虻 +##虽 +##虾 +##蚀 +##蚁 +##蚂 +##蚊 +##蚌 +##蚓 +##蚕 +##蚜 +##蚝 +##蚣 +##蚤 +##蚩 +##蚪 +##蚯 +##蚱 +##蚵 +##蛀 +##蛆 +##蛇 +##蛊 +##蛋 +##蛎 +##蛐 +##蛔 +##蛙 +##蛛 +##蛟 +##蛤 +##蛭 +##蛮 +##蛰 +##蛳 +##蛹 +##蛻 +##蛾 +##蜀 +##蜂 +##蜃 +##蜆 +##蜇 +##蜈 +##蜊 +##蜍 +##蜒 +##蜓 +##蜕 +##蜗 +##蜘 +##蜚 +##蜜 +##蜡 +##蜢 +##蜥 +##蜱 +##蜴 +##蜷 +##蜻 +##蜿 +##蝇 +##蝈 +##蝉 +##蝌 +##蝎 +##蝕 +##蝗 +##蝙 +##蝟 +##蝠 +##蝦 +##蝨 +##蝴 +##蝶 +##蝸 +##蝼 +##螂 +##螃 +##融 +##螞 +##螢 +##螨 +##螯 +##螳 +##螺 +##蟀 +##蟄 +##蟆 +##蟋 +##蟎 +##蟑 +##蟒 +##蟠 +##蟬 +##蟲 +##蟹 +##蟻 +##蟾 +##蠅 +##蠍 +##蠔 +##蠕 +##蠛 +##蠟 +##蠡 +##蠢 +##蠣 +##蠱 +##蠶 +##蠹 +##蠻 +##血 +##衄 +##衅 +##衆 +##行 +##衍 +##術 +##衔 +##街 +##衙 +##衛 +##衝 +##衞 +##衡 +##衢 +##衣 +##补 +##表 +##衩 +##衫 +##衬 +##衮 +##衰 +##衲 +##衷 +##衹 +##衾 +##衿 +##袁 +##袂 +##袄 +##袅 +##袈 +##袋 +##袍 +##袒 +##袖 +##袜 +##袞 +##袤 +##袪 +##被 +##袭 +##袱 +##裁 +##裂 +##装 +##裆 +##裊 +##裏 +##裔 +##裕 +##裘 +##裙 +##補 +##裝 +##裟 +##裡 +##裤 +##裨 +##裱 +##裳 +##裴 +##裸 +##裹 +##製 +##裾 +##褂 +##複 +##褐 +##褒 +##褓 +##褔 +##褚 +##褥 +##褪 +##褫 +##褲 +##褶 +##褻 +##襁 +##襄 +##襟 +##襠 +##襪 +##襬 +##襯 +##襲 +##西 +##要 +##覃 +##覆 +##覇 +##見 +##規 +##覓 +##視 +##覚 +##覦 +##覧 +##親 +##覬 +##観 +##覷 +##覺 +##覽 +##觀 +##见 +##观 +##规 +##觅 +##视 +##览 +##觉 +##觊 +##觎 +##觐 +##觑 +##角 +##觞 +##解 +##觥 +##触 +##觸 +##言 +##訂 +##計 +##訊 +##討 +##訓 +##訕 +##訖 +##託 +##記 +##訛 +##訝 +##訟 +##訣 +##訥 +##訪 +##設 +##許 +##訳 +##訴 +##訶 +##診 +##註 +##証 +##詆 +##詐 +##詔 +##評 +##詛 +##詞 +##詠 +##詡 +##詢 +##詣 +##試 +##詩 +##詫 +##詬 +##詭 +##詮 +##詰 +##話 +##該 +##詳 +##詹 +##詼 +##誅 +##誇 +##誉 +##誌 +##認 +##誓 +##誕 +##誘 +##語 +##誠 +##誡 +##誣 +##誤 +##誥 +##誦 +##誨 +##說 +##説 +##読 +##誰 +##課 +##誹 +##誼 +##調 +##諄 +##談 +##請 +##諏 +##諒 +##論 +##諗 +##諜 +##諡 +##諦 +##諧 +##諫 +##諭 +##諮 +##諱 +##諳 +##諷 +##諸 +##諺 +##諾 +##謀 +##謁 +##謂 +##謄 +##謊 +##謎 +##謐 +##謔 +##謗 +##謙 +##講 +##謝 +##謠 +##謨 +##謬 +##謹 +##謾 +##譁 +##證 +##譎 +##譏 +##識 +##譙 +##譚 +##譜 +##警 +##譬 +##譯 +##議 +##譲 +##譴 +##護 +##譽 +##讀 +##變 +##讓 +##讚 +##讞 +##计 +##订 +##认 +##讥 +##讧 +##讨 +##让 +##讪 +##讫 +##训 +##议 +##讯 +##记 +##讲 +##讳 +##讴 +##讶 +##讷 +##许 +##讹 +##论 +##讼 +##讽 +##设 +##访 +##诀 +##证 +##诃 +##评 +##诅 +##识 +##诈 +##诉 +##诊 +##诋 +##词 +##诏 +##译 +##试 +##诗 +##诘 +##诙 +##诚 +##诛 +##话 +##诞 +##诟 +##诠 +##诡 +##询 +##诣 +##诤 +##该 +##详 +##诧 +##诩 +##诫 +##诬 +##语 +##误 +##诰 +##诱 +##诲 +##说 +##诵 +##诶 +##请 +##诸 +##诺 +##读 +##诽 +##课 +##诿 +##谀 +##谁 +##调 +##谄 +##谅 +##谆 +##谈 +##谊 +##谋 +##谌 +##谍 +##谎 +##谏 +##谐 +##谑 +##谒 +##谓 +##谔 +##谕 +##谗 +##谘 +##谙 +##谚 +##谛 +##谜 +##谟 +##谢 +##谣 +##谤 +##谥 +##谦 +##谧 +##谨 +##谩 +##谪 +##谬 +##谭 +##谯 +##谱 +##谲 +##谴 +##谶 +##谷 +##豁 +##豆 +##豇 +##豈 +##豉 +##豊 +##豌 +##豎 +##豐 +##豔 +##豚 +##象 +##豢 +##豪 +##豫 +##豬 +##豹 +##豺 +##貂 +##貅 +##貌 +##貓 +##貔 +##貘 +##貝 +##貞 +##負 +##財 +##貢 +##貧 +##貨 +##販 +##貪 +##貫 +##責 +##貯 +##貰 +##貳 +##貴 +##貶 +##買 +##貸 +##費 +##貼 +##貽 +##貿 +##賀 +##賁 +##賂 +##賃 +##賄 +##資 +##賈 +##賊 +##賑 +##賓 +##賜 +##賞 +##賠 +##賡 +##賢 +##賣 +##賤 +##賦 +##質 +##賬 +##賭 +##賴 +##賺 +##購 +##賽 +##贅 +##贈 +##贊 +##贍 +##贏 +##贓 +##贖 +##贛 +##贝 +##贞 +##负 +##贡 +##财 +##责 +##贤 +##败 +##账 +##货 +##质 +##贩 +##贪 +##贫 +##贬 +##购 +##贮 +##贯 +##贰 +##贱 +##贲 +##贴 +##贵 +##贷 +##贸 +##费 +##贺 +##贻 +##贼 +##贾 +##贿 +##赁 +##赂 +##赃 +##资 +##赅 +##赈 +##赊 +##赋 +##赌 +##赎 +##赏 +##赐 +##赓 +##赔 +##赖 +##赘 +##赚 +##赛 +##赝 +##赞 +##赠 +##赡 +##赢 +##赣 +##赤 +##赦 +##赧 +##赫 +##赭 +##走 +##赳 +##赴 +##赵 +##赶 +##起 +##趁 +##超 +##越 +##趋 +##趕 +##趙 +##趟 +##趣 +##趨 +##足 +##趴 +##趵 +##趸 +##趺 +##趾 +##跃 +##跄 +##跆 +##跋 +##跌 +##跎 +##跑 +##跖 +##跚 +##跛 +##距 +##跟 +##跡 +##跤 +##跨 +##跩 +##跪 +##路 +##跳 +##践 +##跷 +##跹 +##跺 +##跻 +##踉 +##踊 +##踌 +##踏 +##踐 +##踝 +##踞 +##踟 +##踢 +##踩 +##踪 +##踮 +##踱 +##踴 +##踵 +##踹 +##蹂 +##蹄 +##蹇 +##蹈 +##蹉 +##蹊 +##蹋 +##蹑 +##蹒 +##蹙 +##蹟 +##蹣 +##蹤 +##蹦 +##蹩 +##蹬 +##蹭 +##蹲 +##蹴 +##蹶 +##蹺 +##蹼 +##蹿 +##躁 +##躇 +##躉 +##躊 +##躋 +##躍 +##躏 +##躪 +##身 +##躬 +##躯 +##躲 +##躺 +##軀 +##車 +##軋 +##軌 +##軍 +##軒 +##軟 +##転 +##軸 +##軼 +##軽 +##軾 +##較 +##載 +##輒 +##輓 +##輔 +##輕 +##輛 +##輝 +##輟 +##輩 +##輪 +##輯 +##輸 +##輻 +##輾 +##輿 +##轄 +##轅 +##轆 +##轉 +##轍 +##轎 +##轟 +##车 +##轧 +##轨 +##轩 +##转 +##轭 +##轮 +##软 +##轰 +##轲 +##轴 +##轶 +##轻 +##轼 +##载 +##轿 +##较 +##辄 +##辅 +##辆 +##辇 +##辈 +##辉 +##辊 +##辍 +##辐 +##辑 +##输 +##辕 +##辖 +##辗 +##辘 +##辙 +##辛 +##辜 +##辞 +##辟 +##辣 +##辦 +##辨 +##辩 +##辫 +##辭 +##辮 +##辯 +##辰 +##辱 +##農 +##边 +##辺 +##辻 +##込 +##辽 +##达 +##迁 +##迂 +##迄 +##迅 +##过 +##迈 +##迎 +##运 +##近 +##返 +##还 +##这 +##进 +##远 +##违 +##连 +##迟 +##迢 +##迤 +##迥 +##迦 +##迩 +##迪 +##迫 +##迭 +##述 +##迴 +##迷 +##迸 +##迹 +##迺 +##追 +##退 +##送 +##适 +##逃 +##逅 +##逆 +##选 +##逊 +##逍 +##透 +##逐 +##递 +##途 +##逕 +##逗 +##這 +##通 +##逛 +##逝 +##逞 +##速 +##造 +##逢 +##連 +##逮 +##週 +##進 +##逵 +##逶 +##逸 +##逻 +##逼 +##逾 +##遁 +##遂 +##遅 +##遇 +##遊 +##運 +##遍 +##過 +##遏 +##遐 +##遑 +##遒 +##道 +##達 +##違 +##遗 +##遙 +##遛 +##遜 +##遞 +##遠 +##遢 +##遣 +##遥 +##遨 +##適 +##遭 +##遮 +##遲 +##遴 +##遵 +##遶 +##遷 +##選 +##遺 +##遼 +##遽 +##避 +##邀 +##邁 +##邂 +##邃 +##還 +##邇 +##邈 +##邊 +##邋 +##邏 +##邑 +##邓 +##邕 +##邛 +##邝 +##邢 +##那 +##邦 +##邨 +##邪 +##邬 +##邮 +##邯 +##邰 +##邱 +##邳 +##邵 +##邸 +##邹 +##邺 +##邻 +##郁 +##郅 +##郊 +##郎 +##郑 +##郜 +##郝 +##郡 +##郢 +##郤 +##郦 +##郧 +##部 +##郫 +##郭 +##郴 +##郵 +##郷 +##郸 +##都 +##鄂 +##鄉 +##鄒 +##鄔 +##鄙 +##鄞 +##鄢 +##鄧 +##鄭 +##鄰 +##鄱 +##鄲 +##鄺 +##酉 +##酊 +##酋 +##酌 +##配 +##酐 +##酒 +##酗 +##酚 +##酝 +##酢 +##酣 +##酥 +##酩 +##酪 +##酬 +##酮 +##酯 +##酰 +##酱 +##酵 +##酶 +##酷 +##酸 +##酿 +##醃 +##醇 +##醉 +##醋 +##醍 +##醐 +##醒 +##醚 +##醛 +##醜 +##醞 +##醣 +##醪 +##醫 +##醬 +##醮 +##醯 +##醴 +##醺 +##釀 +##釁 +##采 +##釉 +##释 +##釋 +##里 +##重 +##野 +##量 +##釐 +##金 +##釗 +##釘 +##釜 +##針 +##釣 +##釦 +##釧 +##釵 +##鈀 +##鈉 +##鈍 +##鈎 +##鈔 +##鈕 +##鈞 +##鈣 +##鈦 +##鈪 +##鈴 +##鈺 +##鈾 +##鉀 +##鉄 +##鉅 +##鉉 +##鉑 +##鉗 +##鉚 +##鉛 +##鉤 +##鉴 +##鉻 +##銀 +##銃 +##銅 +##銑 +##銓 +##銖 +##銘 +##銜 +##銬 +##銭 +##銮 +##銳 +##銷 +##銹 +##鋁 +##鋅 +##鋒 +##鋤 +##鋪 +##鋰 +##鋸 +##鋼 +##錄 +##錐 +##錘 +##錚 +##錠 +##錢 +##錦 +##錨 +##錫 +##錮 +##錯 +##録 +##錳 +##錶 +##鍊 +##鍋 +##鍍 +##鍛 +##鍥 +##鍰 +##鍵 +##鍺 +##鍾 +##鎂 +##鎊 +##鎌 +##鎏 +##鎔 +##鎖 +##鎗 +##鎚 +##鎧 +##鎬 +##鎮 +##鎳 +##鏈 +##鏖 +##鏗 +##鏘 +##鏞 +##鏟 +##鏡 +##鏢 +##鏤 +##鏽 +##鐘 +##鐮 +##鐲 +##鐳 +##鐵 +##鐸 +##鐺 +##鑄 +##鑊 +##鑑 +##鑒 +##鑣 +##鑫 +##鑰 +##鑲 +##鑼 +##鑽 +##鑾 +##鑿 +##针 +##钉 +##钊 +##钎 +##钏 +##钒 +##钓 +##钗 +##钙 +##钛 +##钜 +##钝 +##钞 +##钟 +##钠 +##钡 +##钢 +##钣 +##钤 +##钥 +##钦 +##钧 +##钨 +##钩 +##钮 +##钯 +##钰 +##钱 +##钳 +##钴 +##钵 +##钺 +##钻 +##钼 +##钾 +##钿 +##铀 +##铁 +##铂 +##铃 +##铄 +##铅 +##铆 +##铉 +##铎 +##铐 +##铛 +##铜 +##铝 +##铠 +##铡 +##铢 +##铣 +##铤 +##铨 +##铩 +##铬 +##铭 +##铮 +##铰 +##铲 +##铵 +##银 +##铸 +##铺 +##链 +##铿 +##销 +##锁 +##锂 +##锄 +##锅 +##锆 +##锈 +##锉 +##锋 +##锌 +##锏 +##锐 +##锑 +##错 +##锚 +##锟 +##锡 +##锢 +##锣 +##锤 +##锥 +##锦 +##锭 +##键 +##锯 +##锰 +##锲 +##锵 +##锹 +##锺 +##锻 +##镀 +##镁 +##镂 +##镇 +##镉 +##镌 +##镍 +##镐 +##镑 +##镕 +##镖 +##镗 +##镛 +##镜 +##镣 +##镭 +##镯 +##镰 +##镳 +##镶 +##長 +##长 +##門 +##閃 +##閉 +##開 +##閎 +##閏 +##閑 +##閒 +##間 +##閔 +##閘 +##閡 +##関 +##閣 +##閥 +##閨 +##閩 +##閱 +##閲 +##閹 +##閻 +##閾 +##闆 +##闇 +##闊 +##闌 +##闍 +##闔 +##闕 +##闖 +##闘 +##關 +##闡 +##闢 +##门 +##闪 +##闫 +##闭 +##问 +##闯 +##闰 +##闲 +##间 +##闵 +##闷 +##闸 +##闹 +##闺 +##闻 +##闽 +##闾 +##阀 +##阁 +##阂 +##阅 +##阆 +##阇 +##阈 +##阉 +##阎 +##阐 +##阑 +##阔 +##阕 +##阖 +##阙 +##阚 +##阜 +##队 +##阡 +##阪 +##阮 +##阱 +##防 +##阳 +##阴 +##阵 +##阶 +##阻 +##阿 +##陀 +##陂 +##附 +##际 +##陆 +##陇 +##陈 +##陋 +##陌 +##降 +##限 +##陕 +##陛 +##陝 +##陞 +##陟 +##陡 +##院 +##陣 +##除 +##陨 +##险 +##陪 +##陰 +##陲 +##陳 +##陵 +##陶 +##陷 +##陸 +##険 +##陽 +##隅 +##隆 +##隈 +##隊 +##隋 +##隍 +##階 +##随 +##隐 +##隔 +##隕 +##隘 +##隙 +##際 +##障 +##隠 +##隣 +##隧 +##隨 +##險 +##隱 +##隴 +##隶 +##隸 +##隻 +##隼 +##隽 +##难 +##雀 +##雁 +##雄 +##雅 +##集 +##雇 +##雉 +##雋 +##雌 +##雍 +##雎 +##雏 +##雑 +##雒 +##雕 +##雖 +##雙 +##雛 +##雜 +##雞 +##離 +##難 +##雨 +##雪 +##雯 +##雰 +##雲 +##雳 +##零 +##雷 +##雹 +##電 +##雾 +##需 +##霁 +##霄 +##霆 +##震 +##霈 +##霉 +##霊 +##霍 +##霎 +##霏 +##霑 +##霓 +##霖 +##霜 +##霞 +##霧 +##霭 +##霰 +##露 +##霸 +##霹 +##霽 +##霾 +##靂 +##靄 +##靈 +##青 +##靓 +##靖 +##静 +##靚 +##靛 +##靜 +##非 +##靠 +##靡 +##面 +##靥 +##靦 +##革 +##靳 +##靴 +##靶 +##靼 +##鞅 +##鞋 +##鞍 +##鞏 +##鞑 +##鞘 +##鞠 +##鞣 +##鞦 +##鞭 +##韆 +##韋 +##韌 +##韓 +##韜 +##韦 +##韧 +##韩 +##韬 +##韭 +##音 +##韵 +##韶 +##韻 +##響 +##頁 +##頂 +##頃 +##項 +##順 +##須 +##頌 +##預 +##頑 +##頒 +##頓 +##頗 +##領 +##頜 +##頡 +##頤 +##頫 +##頭 +##頰 +##頷 +##頸 +##頹 +##頻 +##頼 +##顆 +##題 +##額 +##顎 +##顏 +##顔 +##願 +##顛 +##類 +##顧 +##顫 +##顯 +##顱 +##顴 +##页 +##顶 +##顷 +##项 +##顺 +##须 +##顼 +##顽 +##顾 +##顿 +##颁 +##颂 +##预 +##颅 +##领 +##颇 +##颈 +##颉 +##颊 +##颌 +##颍 +##颐 +##频 +##颓 +##颔 +##颖 +##颗 +##题 +##颚 +##颛 +##颜 +##额 +##颞 +##颠 +##颡 +##颢 +##颤 +##颦 +##颧 +##風 +##颯 +##颱 +##颳 +##颶 +##颼 +##飄 +##飆 +##风 +##飒 +##飓 +##飕 +##飘 +##飙 +##飚 +##飛 +##飞 +##食 +##飢 +##飨 +##飩 +##飪 +##飯 +##飲 +##飼 +##飽 +##飾 +##餃 +##餅 +##餉 +##養 +##餌 +##餐 +##餒 +##餓 +##餘 +##餚 +##餛 +##餞 +##餡 +##館 +##餮 +##餵 +##餾 +##饅 +##饈 +##饋 +##饌 +##饍 +##饑 +##饒 +##饕 +##饗 +##饞 +##饥 +##饨 +##饪 +##饬 +##饭 +##饮 +##饯 +##饰 +##饱 +##饲 +##饴 +##饵 +##饶 +##饷 +##饺 +##饼 +##饽 +##饿 +##馀 +##馁 +##馄 +##馅 +##馆 +##馈 +##馋 +##馍 +##馏 +##馒 +##馔 +##首 +##馗 +##香 +##馥 +##馨 +##馬 +##馭 +##馮 +##馳 +##馴 +##駁 +##駄 +##駅 +##駆 +##駐 +##駒 +##駕 +##駛 +##駝 +##駭 +##駱 +##駿 +##騁 +##騎 +##騏 +##験 +##騙 +##騨 +##騰 +##騷 +##驀 +##驅 +##驊 +##驍 +##驒 +##驕 +##驗 +##驚 +##驛 +##驟 +##驢 +##驥 +##马 +##驭 +##驮 +##驯 +##驰 +##驱 +##驳 +##驴 +##驶 +##驷 +##驸 +##驹 +##驻 +##驼 +##驾 +##驿 +##骁 +##骂 +##骄 +##骅 +##骆 +##骇 +##骈 +##骊 +##骋 +##验 +##骏 +##骐 +##骑 +##骗 +##骚 +##骛 +##骜 +##骞 +##骠 +##骡 +##骤 +##骥 +##骧 +##骨 +##骯 +##骰 +##骶 +##骷 +##骸 +##骼 +##髂 +##髅 +##髋 +##髏 +##髒 +##髓 +##體 +##髖 +##高 +##髦 +##髪 +##髮 +##髯 +##髻 +##鬃 +##鬆 +##鬍 +##鬓 +##鬚 +##鬟 +##鬢 +##鬣 +##鬥 +##鬧 +##鬱 +##鬼 +##魁 +##魂 +##魄 +##魅 +##魇 +##魍 +##魏 +##魔 +##魘 +##魚 +##魯 +##魷 +##鮑 +##鮨 +##鮪 +##鮭 +##鮮 +##鯉 +##鯊 +##鯖 +##鯛 +##鯨 +##鯰 +##鯽 +##鰍 +##鰓 +##鰭 +##鰲 +##鰻 +##鰾 +##鱈 +##鱉 +##鱔 +##鱗 +##鱷 +##鱸 +##鱼 +##鱿 +##鲁 +##鲈 +##鲍 +##鲑 +##鲛 +##鲜 +##鲟 +##鲢 +##鲤 +##鲨 +##鲫 +##鲱 +##鲲 +##鲶 +##鲷 +##鲸 +##鳃 +##鳄 +##鳅 +##鳌 +##鳍 +##鳕 +##鳖 +##鳗 +##鳝 +##鳞 +##鳥 +##鳩 +##鳳 +##鳴 +##鳶 +##鴉 +##鴕 +##鴛 +##鴦 +##鴨 +##鴻 +##鴿 +##鵑 +##鵜 +##鵝 +##鵡 +##鵬 +##鵰 +##鵲 +##鶘 +##鶩 +##鶯 +##鶴 +##鷗 +##鷲 +##鷹 +##鷺 +##鸚 +##鸞 +##鸟 +##鸠 +##鸡 +##鸢 +##鸣 +##鸥 +##鸦 +##鸨 +##鸪 +##鸭 +##鸯 +##鸳 +##鸵 +##鸽 +##鸾 +##鸿 +##鹂 +##鹃 +##鹄 +##鹅 +##鹈 +##鹉 +##鹊 +##鹌 +##鹏 +##鹑 +##鹕 +##鹘 +##鹜 +##鹞 +##鹤 +##鹦 +##鹧 +##鹫 +##鹭 +##鹰 +##鹳 +##鹵 +##鹹 +##鹼 +##鹽 +##鹿 +##麂 +##麋 +##麒 +##麓 +##麗 +##麝 +##麟 +##麥 +##麦 +##麩 +##麴 +##麵 +##麸 +##麺 +##麻 +##麼 +##麽 +##麾 +##黃 +##黄 +##黍 +##黎 +##黏 +##黑 +##黒 +##黔 +##默 +##黛 +##黜 +##黝 +##點 +##黠 +##黨 +##黯 +##黴 +##鼋 +##鼎 +##鼐 +##鼓 +##鼠 +##鼬 +##鼹 +##鼻 +##鼾 +##齁 +##齊 +##齋 +##齐 +##齒 +##齡 +##齢 +##齣 +##齦 +##齿 +##龄 +##龅 +##龈 +##龊 +##龋 +##龌 +##龍 +##龐 +##龔 +##龕 +##龙 +##龚 +##龛 +##龜 +##龟 +##︰ +##︱ +##︶ +##︿ +##﹁ +##﹂ +##﹍ +##﹏ +##﹐ +##﹑ +##﹒ +##﹔ +##﹕ +##﹖ +##﹗ +##﹙ +##﹚ +##﹝ +##﹞ +##﹡ +##﹣ +##! +##" +### +##$ +##% +##& +##' +##( +##) +##* +##, +##- +##. +##/ +##: +##; +##< +##? +##@ +##[ +##\ +##] +##^ +##_ +##` +##f +##h +##j +##u +##w +##z +##{ +##} +##。 +##「 +##」 +##、 +##・ +##ッ +##ー +##イ +##ク +##シ +##ス +##ト +##ノ +##フ +##ラ +##ル +##ン +##゙ +##゚ +## ̄ +##¥ +##👍 +##🔥 +##😂 +##😎 diff --git a/chinese_wwm_pytorch/vocab_ori.txt b/chinese_wwm_pytorch/vocab_ori.txt new file mode 100644 index 0000000000000000000000000000000000000000..ca4f9781030019ab9b253c6dcb8c7878b6dc87a5 --- /dev/null +++ b/chinese_wwm_pytorch/vocab_ori.txt @@ -0,0 +1,21128 @@ +[PAD] +[unused1] +[unused2] +[unused3] +[unused4] +[unused5] +[unused6] +[unused7] +[unused8] +[unused9] +[unused10] +[unused11] +[unused12] +[unused13] +[unused14] +[unused15] +[unused16] +[unused17] +[unused18] +[unused19] +[unused20] +[unused21] +[unused22] +[unused23] +[unused24] +[unused25] +[unused26] +[unused27] +[unused28] +[unused29] +[unused30] +[unused31] +[unused32] +[unused33] +[unused34] +[unused35] +[unused36] +[unused37] +[unused38] +[unused39] +[unused40] +[unused41] +[unused42] +[unused43] +[unused44] +[unused45] +[unused46] +[unused47] +[unused48] +[unused49] +[unused50] +[unused51] +[unused52] +[unused53] +[unused54] +[unused55] +[unused56] +[unused57] +[unused58] +[unused59] +[unused60] +[unused61] +[unused62] +[unused63] +[unused64] +[unused65] +[unused66] +[unused67] +[unused68] +[unused69] +[unused70] +[unused71] +[unused72] +[unused73] +[unused74] +[unused75] +[unused76] +[unused77] +[unused78] +[unused79] +[unused80] +[unused81] +[unused82] +[unused83] +[unused84] +[unused85] +[unused86] +[unused87] +[unused88] +[unused89] +[unused90] +[unused91] +[unused92] +[unused93] +[unused94] +[unused95] +[unused96] +[unused97] +[unused98] +[unused99] +[UNK] +[CLS] +[SEP] +[MASK] + + +! +" +# +$ +% +& +' +( +) +* ++ +, +- +. +/ +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +: +; +< += +> +? +@ +[ +\ +] +^ +_ +a +b +c +d +e +f +g +h +i +j +k +l +m +n +o +p +q +r +s +t +u +v +w +x +y +z +{ +| +} +~ +£ +¤ +¥ +§ +© +« +® +° +± +² +³ +µ +· +¹ +º +» +¼ +× +ß +æ +÷ +ø +đ +ŋ +ɔ +ə +ɡ +ʰ +ˇ +ˈ +ˊ +ˋ +ˍ +ː +˙ +˚ +ˢ +α +β +γ +δ +ε +η +θ +ι +κ +λ +μ +ν +ο +π +ρ +ς +σ +τ +υ +φ +χ +ψ +ω +а +б +в +г +д +е +ж +з +и +к +л +м +н +о +п +р +с +т +у +ф +х +ц +ч +ш +ы +ь +я +і +ا +ب +ة +ت +د +ر +س +ع +ل +م +ن +ه +و +ي +۩ +ก +ง +น +ม +ย +ร +อ +า +เ +๑ +་ +ღ +ᄀ +ᄁ +ᄂ +ᄃ +ᄅ +ᄆ +ᄇ +ᄈ +ᄉ +ᄋ +ᄌ +ᄎ +ᄏ +ᄐ +ᄑ +ᄒ +ᅡ +ᅢ +ᅣ +ᅥ +ᅦ +ᅧ +ᅨ +ᅩ +ᅪ +ᅬ +ᅭ +ᅮ +ᅯ +ᅲ +ᅳ +ᅴ +ᅵ +ᆨ +ᆫ +ᆯ +ᆷ +ᆸ +ᆺ +ᆻ +ᆼ +ᗜ +ᵃ +ᵉ +ᵍ +ᵏ +ᵐ +ᵒ +ᵘ +‖ +„ +† +• +‥ +‧ +
 +‰ +′ +″ +‹ +› +※ +‿ +⁄ +ⁱ +⁺ +ⁿ +₁ +₂ +₃ +₄ +€ +℃ +№ +™ +ⅰ +ⅱ +ⅲ +ⅳ +ⅴ +← +↑ +→ +↓ +↔ +↗ +↘ +⇒ +∀ +− +∕ +∙ +√ +∞ +∟ +∠ +∣ +∥ +∩ +∮ +∶ +∼ +∽ +≈ +≒ +≡ +≤ +≥ +≦ +≧ +≪ +≫ +⊙ +⋅ +⋈ +⋯ +⌒ +① +② +③ +④ +⑤ +⑥ +⑦ +⑧ +⑨ +⑩ +⑴ +⑵ +⑶ +⑷ +⑸ +⒈ +⒉ +⒊ +⒋ +ⓒ +ⓔ +ⓘ +─ +━ +│ +┃ +┅ +┆ +┊ +┌ +└ +├ +┣ +═ +║ +╚ +╞ +╠ +╭ +╮ +╯ +╰ +╱ +╳ +▂ +▃ +▅ +▇ +█ +▉ +▋ +▌ +▍ +▎ +■ +□ +▪ +▫ +▬ +▲ +△ +▶ +► +▼ +▽ +◆ +◇ +○ +◎ +● +◕ +◠ +◢ +◤ +☀ +★ +☆ +☕ +☞ +☺ +☼ +♀ +♂ +♠ +♡ +♣ +♥ +♦ +♪ +♫ +♬ +✈ +✔ +✕ +✖ +✦ +✨ +✪ +✰ +✿ +❀ +❤ +➜ +➤ +⦿ +、 +。 +〃 +々 +〇 +〈 +〉 +《 +》 +「 +」 +『 +』 +【 +】 +〓 +〔 +〕 +〖 +〗 +〜 +〝 +〞 +ぁ +あ +ぃ +い +う +ぇ +え +お +か +き +く +け +こ +さ +し +す +せ +そ +た +ち +っ +つ +て +と +な +に +ぬ +ね +の +は +ひ +ふ +へ +ほ +ま +み +む +め +も +ゃ +や +ゅ +ゆ +ょ +よ +ら +り +る +れ +ろ +わ +を +ん +゜ +ゝ +ァ +ア +ィ +イ +ゥ +ウ +ェ +エ +ォ +オ +カ +キ +ク +ケ +コ +サ +シ +ス +セ +ソ +タ +チ +ッ +ツ +テ +ト +ナ +ニ +ヌ +ネ +ノ +ハ +ヒ +フ +ヘ +ホ +マ +ミ +ム +メ +モ +ャ +ヤ +ュ +ユ +ョ +ヨ +ラ +リ +ル +レ +ロ +ワ +ヲ +ン +ヶ +・ +ー +ヽ +ㄅ +ㄆ +ㄇ +ㄉ +ㄋ +ㄌ +ㄍ +ㄎ +ㄏ +ㄒ +ㄚ +ㄛ +ㄞ +ㄟ +ㄢ +ㄤ +ㄥ +ㄧ +ㄨ +ㆍ +㈦ +㊣ +㎡ +㗎 +一 +丁 +七 +万 +丈 +三 +上 +下 +不 +与 +丐 +丑 +专 +且 +丕 +世 +丘 +丙 +业 +丛 +东 +丝 +丞 +丟 +両 +丢 +两 +严 +並 +丧 +丨 +个 +丫 +中 +丰 +串 +临 +丶 +丸 +丹 +为 +主 +丼 +丽 +举 +丿 +乂 +乃 +久 +么 +义 +之 +乌 +乍 +乎 +乏 +乐 +乒 +乓 +乔 +乖 +乗 +乘 +乙 +乜 +九 +乞 +也 +习 +乡 +书 +乩 +买 +乱 +乳 +乾 +亀 +亂 +了 +予 +争 +事 +二 +于 +亏 +云 +互 +五 +井 +亘 +亙 +亚 +些 +亜 +亞 +亟 +亡 +亢 +交 +亥 +亦 +产 +亨 +亩 +享 +京 +亭 +亮 +亲 +亳 +亵 +人 +亿 +什 +仁 +仃 +仄 +仅 +仆 +仇 +今 +介 +仍 +从 +仏 +仑 +仓 +仔 +仕 +他 +仗 +付 +仙 +仝 +仞 +仟 +代 +令 +以 +仨 +仪 +们 +仮 +仰 +仲 +件 +价 +任 +份 +仿 +企 +伉 +伊 +伍 +伎 +伏 +伐 +休 +伕 +众 +优 +伙 +会 +伝 +伞 +伟 +传 +伢 +伤 +伦 +伪 +伫 +伯 +估 +伴 +伶 +伸 +伺 +似 +伽 +佃 +但 +佇 +佈 +位 +低 +住 +佐 +佑 +体 +佔 +何 +佗 +佘 +余 +佚 +佛 +作 +佝 +佞 +佟 +你 +佢 +佣 +佤 +佥 +佩 +佬 +佯 +佰 +佳 +併 +佶 +佻 +佼 +使 +侃 +侄 +來 +侈 +例 +侍 +侏 +侑 +侖 +侗 +供 +依 +侠 +価 +侣 +侥 +侦 +侧 +侨 +侬 +侮 +侯 +侵 +侶 +侷 +便 +係 +促 +俄 +俊 +俎 +俏 +俐 +俑 +俗 +俘 +俚 +保 +俞 +俟 +俠 +信 +俨 +俩 +俪 +俬 +俭 +修 +俯 +俱 +俳 +俸 +俺 +俾 +倆 +倉 +個 +倌 +倍 +倏 +們 +倒 +倔 +倖 +倘 +候 +倚 +倜 +借 +倡 +値 +倦 +倩 +倪 +倫 +倬 +倭 +倶 +债 +值 +倾 +偃 +假 +偈 +偉 +偌 +偎 +偏 +偕 +做 +停 +健 +側 +偵 +偶 +偷 +偻 +偽 +偿 +傀 +傅 +傍 +傑 +傘 +備 +傚 +傢 +傣 +傥 +储 +傩 +催 +傭 +傲 +傳 +債 +傷 +傻 +傾 +僅 +働 +像 +僑 +僕 +僖 +僚 +僥 +僧 +僭 +僮 +僱 +僵 +價 +僻 +儀 +儂 +億 +儆 +儉 +儋 +儒 +儕 +儘 +償 +儡 +優 +儲 +儷 +儼 +儿 +兀 +允 +元 +兄 +充 +兆 +兇 +先 +光 +克 +兌 +免 +児 +兑 +兒 +兔 +兖 +党 +兜 +兢 +入 +內 +全 +兩 +八 +公 +六 +兮 +兰 +共 +兲 +关 +兴 +兵 +其 +具 +典 +兹 +养 +兼 +兽 +冀 +内 +円 +冇 +冈 +冉 +冊 +册 +再 +冏 +冒 +冕 +冗 +写 +军 +农 +冠 +冢 +冤 +冥 +冨 +冪 +冬 +冯 +冰 +冲 +决 +况 +冶 +冷 +冻 +冼 +冽 +冾 +净 +凄 +准 +凇 +凈 +凉 +凋 +凌 +凍 +减 +凑 +凛 +凜 +凝 +几 +凡 +凤 +処 +凪 +凭 +凯 +凰 +凱 +凳 +凶 +凸 +凹 +出 +击 +函 +凿 +刀 +刁 +刃 +分 +切 +刈 +刊 +刍 +刎 +刑 +划 +列 +刘 +则 +刚 +创 +初 +删 +判 +別 +刨 +利 +刪 +别 +刮 +到 +制 +刷 +券 +刹 +刺 +刻 +刽 +剁 +剂 +剃 +則 +剉 +削 +剋 +剌 +前 +剎 +剐 +剑 +剔 +剖 +剛 +剜 +剝 +剣 +剤 +剥 +剧 +剩 +剪 +副 +割 +創 +剷 +剽 +剿 +劃 +劇 +劈 +劉 +劊 +劍 +劏 +劑 +力 +劝 +办 +功 +加 +务 +劣 +动 +助 +努 +劫 +劭 +励 +劲 +劳 +労 +劵 +効 +劾 +势 +勁 +勃 +勇 +勉 +勋 +勐 +勒 +動 +勖 +勘 +務 +勛 +勝 +勞 +募 +勢 +勤 +勧 +勳 +勵 +勸 +勺 +勻 +勾 +勿 +匀 +包 +匆 +匈 +匍 +匐 +匕 +化 +北 +匙 +匝 +匠 +匡 +匣 +匪 +匮 +匯 +匱 +匹 +区 +医 +匾 +匿 +區 +十 +千 +卅 +升 +午 +卉 +半 +卍 +华 +协 +卑 +卒 +卓 +協 +单 +卖 +南 +単 +博 +卜 +卞 +卟 +占 +卡 +卢 +卤 +卦 +卧 +卫 +卮 +卯 +印 +危 +即 +却 +卵 +卷 +卸 +卻 +卿 +厂 +厄 +厅 +历 +厉 +压 +厌 +厕 +厘 +厚 +厝 +原 +厢 +厥 +厦 +厨 +厩 +厭 +厮 +厲 +厳 +去 +县 +叁 +参 +參 +又 +叉 +及 +友 +双 +反 +収 +发 +叔 +取 +受 +变 +叙 +叛 +叟 +叠 +叡 +叢 +口 +古 +句 +另 +叨 +叩 +只 +叫 +召 +叭 +叮 +可 +台 +叱 +史 +右 +叵 +叶 +号 +司 +叹 +叻 +叼 +叽 +吁 +吃 +各 +吆 +合 +吉 +吊 +吋 +同 +名 +后 +吏 +吐 +向 +吒 +吓 +吕 +吖 +吗 +君 +吝 +吞 +吟 +吠 +吡 +否 +吧 +吨 +吩 +含 +听 +吭 +吮 +启 +吱 +吳 +吴 +吵 +吶 +吸 +吹 +吻 +吼 +吽 +吾 +呀 +呂 +呃 +呆 +呈 +告 +呋 +呎 +呐 +呓 +呕 +呗 +员 +呛 +呜 +呢 +呤 +呦 +周 +呱 +呲 +味 +呵 +呷 +呸 +呻 +呼 +命 +咀 +咁 +咂 +咄 +咆 +咋 +和 +咎 +咏 +咐 +咒 +咔 +咕 +咖 +咗 +咘 +咙 +咚 +咛 +咣 +咤 +咦 +咧 +咨 +咩 +咪 +咫 +咬 +咭 +咯 +咱 +咲 +咳 +咸 +咻 +咽 +咿 +哀 +品 +哂 +哄 +哆 +哇 +哈 +哉 +哋 +哌 +响 +哎 +哏 +哐 +哑 +哒 +哔 +哗 +哟 +員 +哥 +哦 +哧 +哨 +哩 +哪 +哭 +哮 +哲 +哺 +哼 +哽 +唁 +唄 +唆 +唇 +唉 +唏 +唐 +唑 +唔 +唠 +唤 +唧 +唬 +售 +唯 +唰 +唱 +唳 +唷 +唸 +唾 +啃 +啄 +商 +啉 +啊 +問 +啓 +啕 +啖 +啜 +啞 +啟 +啡 +啤 +啥 +啦 +啧 +啪 +啫 +啬 +啮 +啰 +啱 +啲 +啵 +啶 +啷 +啸 +啻 +啼 +啾 +喀 +喂 +喃 +善 +喆 +喇 +喉 +喊 +喋 +喎 +喏 +喔 +喘 +喙 +喚 +喜 +喝 +喟 +喧 +喪 +喫 +喬 +單 +喰 +喱 +喲 +喳 +喵 +営 +喷 +喹 +喺 +喻 +喽 +嗅 +嗆 +嗇 +嗎 +嗑 +嗒 +嗓 +嗔 +嗖 +嗚 +嗜 +嗝 +嗟 +嗡 +嗣 +嗤 +嗦 +嗨 +嗪 +嗬 +嗯 +嗰 +嗲 +嗳 +嗶 +嗷 +嗽 +嘀 +嘅 +嘆 +嘈 +嘉 +嘌 +嘍 +嘎 +嘔 +嘖 +嘗 +嘘 +嘚 +嘛 +嘜 +嘞 +嘟 +嘢 +嘣 +嘤 +嘧 +嘩 +嘭 +嘮 +嘯 +嘰 +嘱 +嘲 +嘴 +嘶 +嘸 +嘹 +嘻 +嘿 +噁 +噌 +噎 +噓 +噔 +噗 +噙 +噜 +噠 +噢 +噤 +器 +噩 +噪 +噬 +噱 +噴 +噶 +噸 +噹 +噻 +噼 +嚀 +嚇 +嚎 +嚏 +嚐 +嚓 +嚕 +嚟 +嚣 +嚥 +嚨 +嚮 +嚴 +嚷 +嚼 +囂 +囉 +囊 +囍 +囑 +囔 +囗 +囚 +四 +囝 +回 +囟 +因 +囡 +团 +団 +囤 +囧 +囪 +囫 +园 +困 +囱 +囲 +図 +围 +囹 +固 +国 +图 +囿 +圃 +圄 +圆 +圈 +國 +圍 +圏 +園 +圓 +圖 +團 +圜 +土 +圣 +圧 +在 +圩 +圭 +地 +圳 +场 +圻 +圾 +址 +坂 +均 +坊 +坍 +坎 +坏 +坐 +坑 +块 +坚 +坛 +坝 +坞 +坟 +坠 +坡 +坤 +坦 +坨 +坪 +坯 +坳 +坵 +坷 +垂 +垃 +垄 +型 +垒 +垚 +垛 +垠 +垢 +垣 +垦 +垩 +垫 +垭 +垮 +垵 +埂 +埃 +埋 +城 +埔 +埕 +埗 +域 +埠 +埤 +埵 +執 +埸 +培 +基 +埼 +堀 +堂 +堃 +堅 +堆 +堇 +堑 +堕 +堙 +堡 +堤 +堪 +堯 +堰 +報 +場 +堵 +堺 +堿 +塊 +塌 +塑 +塔 +塗 +塘 +塚 +塞 +塢 +塩 +填 +塬 +塭 +塵 +塾 +墀 +境 +墅 +墉 +墊 +墒 +墓 +増 +墘 +墙 +墜 +增 +墟 +墨 +墩 +墮 +墳 +墻 +墾 +壁 +壅 +壆 +壇 +壊 +壑 +壓 +壕 +壘 +壞 +壟 +壢 +壤 +壩 +士 +壬 +壮 +壯 +声 +売 +壳 +壶 +壹 +壺 +壽 +处 +备 +変 +复 +夏 +夔 +夕 +外 +夙 +多 +夜 +够 +夠 +夢 +夥 +大 +天 +太 +夫 +夭 +央 +夯 +失 +头 +夷 +夸 +夹 +夺 +夾 +奂 +奄 +奇 +奈 +奉 +奋 +奎 +奏 +奐 +契 +奔 +奕 +奖 +套 +奘 +奚 +奠 +奢 +奥 +奧 +奪 +奬 +奮 +女 +奴 +奶 +奸 +她 +好 +如 +妃 +妄 +妆 +妇 +妈 +妊 +妍 +妒 +妓 +妖 +妘 +妙 +妝 +妞 +妣 +妤 +妥 +妨 +妩 +妪 +妮 +妲 +妳 +妹 +妻 +妾 +姆 +姉 +姊 +始 +姍 +姐 +姑 +姒 +姓 +委 +姗 +姚 +姜 +姝 +姣 +姥 +姦 +姨 +姪 +姫 +姬 +姹 +姻 +姿 +威 +娃 +娄 +娅 +娆 +娇 +娉 +娑 +娓 +娘 +娛 +娜 +娟 +娠 +娣 +娥 +娩 +娱 +娲 +娴 +娶 +娼 +婀 +婁 +婆 +婉 +婊 +婕 +婚 +婢 +婦 +婧 +婪 +婭 +婴 +婵 +婶 +婷 +婺 +婿 +媒 +媚 +媛 +媞 +媧 +媲 +媳 +媽 +媾 +嫁 +嫂 +嫉 +嫌 +嫑 +嫔 +嫖 +嫘 +嫚 +嫡 +嫣 +嫦 +嫩 +嫲 +嫵 +嫻 +嬅 +嬉 +嬌 +嬗 +嬛 +嬢 +嬤 +嬪 +嬰 +嬴 +嬷 +嬸 +嬿 +孀 +孃 +子 +孑 +孔 +孕 +孖 +字 +存 +孙 +孚 +孛 +孜 +孝 +孟 +孢 +季 +孤 +学 +孩 +孪 +孫 +孬 +孰 +孱 +孳 +孵 +學 +孺 +孽 +孿 +宁 +它 +宅 +宇 +守 +安 +宋 +完 +宏 +宓 +宕 +宗 +官 +宙 +定 +宛 +宜 +宝 +实 +実 +宠 +审 +客 +宣 +室 +宥 +宦 +宪 +宫 +宮 +宰 +害 +宴 +宵 +家 +宸 +容 +宽 +宾 +宿 +寂 +寄 +寅 +密 +寇 +富 +寐 +寒 +寓 +寛 +寝 +寞 +察 +寡 +寢 +寥 +實 +寧 +寨 +審 +寫 +寬 +寮 +寰 +寵 +寶 +寸 +对 +寺 +寻 +导 +対 +寿 +封 +専 +射 +将 +將 +專 +尉 +尊 +尋 +對 +導 +小 +少 +尔 +尕 +尖 +尘 +尚 +尝 +尤 +尧 +尬 +就 +尴 +尷 +尸 +尹 +尺 +尻 +尼 +尽 +尾 +尿 +局 +屁 +层 +屄 +居 +屆 +屈 +屉 +届 +屋 +屌 +屍 +屎 +屏 +屐 +屑 +展 +屜 +属 +屠 +屡 +屢 +層 +履 +屬 +屯 +山 +屹 +屿 +岀 +岁 +岂 +岌 +岐 +岑 +岔 +岖 +岗 +岘 +岙 +岚 +岛 +岡 +岩 +岫 +岬 +岭 +岱 +岳 +岷 +岸 +峇 +峋 +峒 +峙 +峡 +峤 +峥 +峦 +峨 +峪 +峭 +峯 +峰 +峴 +島 +峻 +峽 +崁 +崂 +崆 +崇 +崎 +崑 +崔 +崖 +崗 +崙 +崛 +崧 +崩 +崭 +崴 +崽 +嵇 +嵊 +嵋 +嵌 +嵐 +嵘 +嵩 +嵬 +嵯 +嶂 +嶄 +嶇 +嶋 +嶙 +嶺 +嶼 +嶽 +巅 +巍 +巒 +巔 +巖 +川 +州 +巡 +巢 +工 +左 +巧 +巨 +巩 +巫 +差 +己 +已 +巳 +巴 +巷 +巻 +巽 +巾 +巿 +币 +市 +布 +帅 +帆 +师 +希 +帐 +帑 +帕 +帖 +帘 +帚 +帛 +帜 +帝 +帥 +带 +帧 +師 +席 +帮 +帯 +帰 +帳 +帶 +帷 +常 +帼 +帽 +幀 +幂 +幄 +幅 +幌 +幔 +幕 +幟 +幡 +幢 +幣 +幫 +干 +平 +年 +并 +幸 +幹 +幺 +幻 +幼 +幽 +幾 +广 +庁 +広 +庄 +庆 +庇 +床 +序 +庐 +库 +应 +底 +庖 +店 +庙 +庚 +府 +庞 +废 +庠 +度 +座 +庫 +庭 +庵 +庶 +康 +庸 +庹 +庾 +廁 +廂 +廃 +廈 +廉 +廊 +廓 +廖 +廚 +廝 +廟 +廠 +廢 +廣 +廬 +廳 +延 +廷 +建 +廿 +开 +弁 +异 +弃 +弄 +弈 +弊 +弋 +式 +弑 +弒 +弓 +弔 +引 +弗 +弘 +弛 +弟 +张 +弥 +弦 +弧 +弩 +弭 +弯 +弱 +張 +強 +弹 +强 +弼 +弾 +彅 +彆 +彈 +彌 +彎 +归 +当 +录 +彗 +彙 +彝 +形 +彤 +彥 +彦 +彧 +彩 +彪 +彫 +彬 +彭 +彰 +影 +彷 +役 +彻 +彼 +彿 +往 +征 +径 +待 +徇 +很 +徉 +徊 +律 +後 +徐 +徑 +徒 +従 +徕 +得 +徘 +徙 +徜 +從 +徠 +御 +徨 +復 +循 +徬 +微 +徳 +徴 +徵 +德 +徹 +徼 +徽 +心 +必 +忆 +忌 +忍 +忏 +忐 +忑 +忒 +忖 +志 +忘 +忙 +応 +忠 +忡 +忤 +忧 +忪 +快 +忱 +念 +忻 +忽 +忿 +怀 +态 +怂 +怅 +怆 +怎 +怏 +怒 +怔 +怕 +怖 +怙 +怜 +思 +怠 +怡 +急 +怦 +性 +怨 +怪 +怯 +怵 +总 +怼 +恁 +恃 +恆 +恋 +恍 +恐 +恒 +恕 +恙 +恚 +恢 +恣 +恤 +恥 +恨 +恩 +恪 +恫 +恬 +恭 +息 +恰 +恳 +恵 +恶 +恸 +恺 +恻 +恼 +恿 +悄 +悅 +悉 +悌 +悍 +悔 +悖 +悚 +悟 +悠 +患 +悦 +您 +悩 +悪 +悬 +悯 +悱 +悲 +悴 +悵 +悶 +悸 +悻 +悼 +悽 +情 +惆 +惇 +惊 +惋 +惑 +惕 +惘 +惚 +惜 +惟 +惠 +惡 +惦 +惧 +惨 +惩 +惫 +惬 +惭 +惮 +惯 +惰 +惱 +想 +惴 +惶 +惹 +惺 +愁 +愆 +愈 +愉 +愍 +意 +愕 +愚 +愛 +愜 +感 +愣 +愤 +愧 +愫 +愷 +愿 +慄 +慈 +態 +慌 +慎 +慑 +慕 +慘 +慚 +慟 +慢 +慣 +慧 +慨 +慫 +慮 +慰 +慳 +慵 +慶 +慷 +慾 +憂 +憊 +憋 +憎 +憐 +憑 +憔 +憚 +憤 +憧 +憨 +憩 +憫 +憬 +憲 +憶 +憾 +懂 +懇 +懈 +應 +懊 +懋 +懑 +懒 +懦 +懲 +懵 +懶 +懷 +懸 +懺 +懼 +懾 +懿 +戀 +戈 +戊 +戌 +戍 +戎 +戏 +成 +我 +戒 +戕 +或 +战 +戚 +戛 +戟 +戡 +戦 +截 +戬 +戮 +戰 +戲 +戳 +戴 +戶 +户 +戸 +戻 +戾 +房 +所 +扁 +扇 +扈 +扉 +手 +才 +扎 +扑 +扒 +打 +扔 +払 +托 +扛 +扣 +扦 +执 +扩 +扪 +扫 +扬 +扭 +扮 +扯 +扰 +扱 +扳 +扶 +批 +扼 +找 +承 +技 +抄 +抉 +把 +抑 +抒 +抓 +投 +抖 +抗 +折 +抚 +抛 +抜 +択 +抟 +抠 +抡 +抢 +护 +报 +抨 +披 +抬 +抱 +抵 +抹 +押 +抽 +抿 +拂 +拄 +担 +拆 +拇 +拈 +拉 +拋 +拌 +拍 +拎 +拐 +拒 +拓 +拔 +拖 +拗 +拘 +拙 +拚 +招 +拜 +拟 +拡 +拢 +拣 +拥 +拦 +拧 +拨 +择 +括 +拭 +拮 +拯 +拱 +拳 +拴 +拷 +拼 +拽 +拾 +拿 +持 +挂 +指 +挈 +按 +挎 +挑 +挖 +挙 +挚 +挛 +挝 +挞 +挟 +挠 +挡 +挣 +挤 +挥 +挨 +挪 +挫 +振 +挲 +挹 +挺 +挽 +挾 +捂 +捅 +捆 +捉 +捋 +捌 +捍 +捎 +捏 +捐 +捕 +捞 +损 +捡 +换 +捣 +捧 +捨 +捩 +据 +捱 +捲 +捶 +捷 +捺 +捻 +掀 +掂 +掃 +掇 +授 +掉 +掌 +掏 +掐 +排 +掖 +掘 +掙 +掛 +掠 +採 +探 +掣 +接 +控 +推 +掩 +措 +掬 +掰 +掲 +掳 +掴 +掷 +掸 +掺 +揀 +揃 +揄 +揆 +揉 +揍 +描 +提 +插 +揖 +揚 +換 +握 +揣 +揩 +揪 +揭 +揮 +援 +揶 +揸 +揹 +揽 +搀 +搁 +搂 +搅 +損 +搏 +搐 +搓 +搔 +搖 +搗 +搜 +搞 +搡 +搪 +搬 +搭 +搵 +搶 +携 +搽 +摀 +摁 +摄 +摆 +摇 +摈 +摊 +摒 +摔 +摘 +摞 +摟 +摧 +摩 +摯 +摳 +摸 +摹 +摺 +摻 +撂 +撃 +撅 +撇 +撈 +撐 +撑 +撒 +撓 +撕 +撚 +撞 +撤 +撥 +撩 +撫 +撬 +播 +撮 +撰 +撲 +撵 +撷 +撸 +撻 +撼 +撿 +擀 +擁 +擂 +擄 +擅 +擇 +擊 +擋 +操 +擎 +擒 +擔 +擘 +據 +擞 +擠 +擡 +擢 +擦 +擬 +擰 +擱 +擲 +擴 +擷 +擺 +擼 +擾 +攀 +攏 +攒 +攔 +攘 +攙 +攜 +攝 +攞 +攢 +攣 +攤 +攥 +攪 +攫 +攬 +支 +收 +攸 +改 +攻 +放 +政 +故 +效 +敌 +敍 +敎 +敏 +救 +敕 +敖 +敗 +敘 +教 +敛 +敝 +敞 +敢 +散 +敦 +敬 +数 +敲 +整 +敵 +敷 +數 +斂 +斃 +文 +斋 +斌 +斎 +斐 +斑 +斓 +斗 +料 +斛 +斜 +斟 +斡 +斤 +斥 +斧 +斩 +斫 +斬 +断 +斯 +新 +斷 +方 +於 +施 +旁 +旃 +旅 +旋 +旌 +旎 +族 +旖 +旗 +无 +既 +日 +旦 +旧 +旨 +早 +旬 +旭 +旮 +旱 +时 +旷 +旺 +旻 +昀 +昂 +昆 +昇 +昉 +昊 +昌 +明 +昏 +易 +昔 +昕 +昙 +星 +映 +春 +昧 +昨 +昭 +是 +昱 +昴 +昵 +昶 +昼 +显 +晁 +時 +晃 +晉 +晋 +晌 +晏 +晒 +晓 +晔 +晕 +晖 +晗 +晚 +晝 +晞 +晟 +晤 +晦 +晨 +晩 +普 +景 +晰 +晴 +晶 +晷 +智 +晾 +暂 +暄 +暇 +暈 +暉 +暌 +暐 +暑 +暖 +暗 +暝 +暢 +暧 +暨 +暫 +暮 +暱 +暴 +暸 +暹 +曄 +曆 +曇 +曉 +曖 +曙 +曜 +曝 +曠 +曦 +曬 +曰 +曲 +曳 +更 +書 +曹 +曼 +曾 +替 +最 +會 +月 +有 +朋 +服 +朐 +朔 +朕 +朗 +望 +朝 +期 +朦 +朧 +木 +未 +末 +本 +札 +朮 +术 +朱 +朴 +朵 +机 +朽 +杀 +杂 +权 +杆 +杈 +杉 +李 +杏 +材 +村 +杓 +杖 +杜 +杞 +束 +杠 +条 +来 +杨 +杭 +杯 +杰 +東 +杳 +杵 +杷 +杼 +松 +板 +极 +构 +枇 +枉 +枋 +析 +枕 +林 +枚 +果 +枝 +枢 +枣 +枪 +枫 +枭 +枯 +枰 +枱 +枳 +架 +枷 +枸 +柄 +柏 +某 +柑 +柒 +染 +柔 +柘 +柚 +柜 +柞 +柠 +柢 +查 +柩 +柬 +柯 +柱 +柳 +柴 +柵 +査 +柿 +栀 +栃 +栄 +栅 +标 +栈 +栉 +栋 +栎 +栏 +树 +栓 +栖 +栗 +校 +栩 +株 +样 +核 +根 +格 +栽 +栾 +桀 +桁 +桂 +桃 +桅 +框 +案 +桉 +桌 +桎 +桐 +桑 +桓 +桔 +桜 +桠 +桡 +桢 +档 +桥 +桦 +桧 +桨 +桩 +桶 +桿 +梁 +梅 +梆 +梏 +梓 +梗 +條 +梟 +梢 +梦 +梧 +梨 +梭 +梯 +械 +梳 +梵 +梶 +检 +棂 +棄 +棉 +棋 +棍 +棒 +棕 +棗 +棘 +棚 +棟 +棠 +棣 +棧 +森 +棱 +棲 +棵 +棹 +棺 +椁 +椅 +椋 +植 +椎 +椒 +検 +椪 +椭 +椰 +椹 +椽 +椿 +楂 +楊 +楓 +楔 +楚 +楝 +楞 +楠 +楣 +楨 +楫 +業 +楮 +極 +楷 +楸 +楹 +楼 +楽 +概 +榄 +榆 +榈 +榉 +榔 +榕 +榖 +榛 +榜 +榨 +榫 +榭 +榮 +榱 +榴 +榷 +榻 +槁 +槃 +構 +槌 +槍 +槎 +槐 +槓 +様 +槛 +槟 +槤 +槭 +槲 +槳 +槻 +槽 +槿 +樁 +樂 +樊 +樑 +樓 +標 +樞 +樟 +模 +樣 +権 +横 +樫 +樯 +樱 +樵 +樸 +樹 +樺 +樽 +樾 +橄 +橇 +橋 +橐 +橘 +橙 +機 +橡 +橢 +橫 +橱 +橹 +橼 +檀 +檄 +檎 +檐 +檔 +檗 +檜 +檢 +檬 +檯 +檳 +檸 +檻 +櫃 +櫚 +櫛 +櫥 +櫸 +櫻 +欄 +權 +欒 +欖 +欠 +次 +欢 +欣 +欧 +欲 +欸 +欺 +欽 +款 +歆 +歇 +歉 +歌 +歎 +歐 +歓 +歙 +歛 +歡 +止 +正 +此 +步 +武 +歧 +歩 +歪 +歯 +歲 +歳 +歴 +歷 +歸 +歹 +死 +歼 +殁 +殃 +殆 +殇 +殉 +殊 +残 +殒 +殓 +殖 +殘 +殞 +殡 +殤 +殭 +殯 +殲 +殴 +段 +殷 +殺 +殼 +殿 +毀 +毁 +毂 +毅 +毆 +毋 +母 +毎 +每 +毒 +毓 +比 +毕 +毗 +毘 +毙 +毛 +毡 +毫 +毯 +毽 +氈 +氏 +氐 +民 +氓 +气 +氖 +気 +氙 +氛 +氟 +氡 +氢 +氣 +氤 +氦 +氧 +氨 +氪 +氫 +氮 +氯 +氰 +氲 +水 +氷 +永 +氹 +氾 +汀 +汁 +求 +汆 +汇 +汉 +汎 +汐 +汕 +汗 +汙 +汛 +汝 +汞 +江 +池 +污 +汤 +汨 +汩 +汪 +汰 +汲 +汴 +汶 +汹 +決 +汽 +汾 +沁 +沂 +沃 +沅 +沈 +沉 +沌 +沏 +沐 +沒 +沓 +沖 +沙 +沛 +沟 +没 +沢 +沣 +沥 +沦 +沧 +沪 +沫 +沭 +沮 +沱 +河 +沸 +油 +治 +沼 +沽 +沾 +沿 +況 +泄 +泉 +泊 +泌 +泓 +法 +泗 +泛 +泞 +泠 +泡 +波 +泣 +泥 +注 +泪 +泫 +泮 +泯 +泰 +泱 +泳 +泵 +泷 +泸 +泻 +泼 +泽 +泾 +洁 +洄 +洋 +洒 +洗 +洙 +洛 +洞 +津 +洩 +洪 +洮 +洱 +洲 +洵 +洶 +洸 +洹 +活 +洼 +洽 +派 +流 +浃 +浄 +浅 +浆 +浇 +浊 +测 +济 +浏 +浑 +浒 +浓 +浔 +浙 +浚 +浜 +浣 +浦 +浩 +浪 +浬 +浮 +浯 +浴 +海 +浸 +涂 +涅 +涇 +消 +涉 +涌 +涎 +涓 +涔 +涕 +涙 +涛 +涝 +涞 +涟 +涠 +涡 +涣 +涤 +润 +涧 +涨 +涩 +涪 +涮 +涯 +液 +涵 +涸 +涼 +涿 +淀 +淄 +淅 +淆 +淇 +淋 +淌 +淑 +淒 +淖 +淘 +淙 +淚 +淞 +淡 +淤 +淦 +淨 +淩 +淪 +淫 +淬 +淮 +深 +淳 +淵 +混 +淹 +淺 +添 +淼 +清 +済 +渉 +渊 +渋 +渍 +渎 +渐 +渔 +渗 +渙 +渚 +減 +渝 +渠 +渡 +渣 +渤 +渥 +渦 +温 +測 +渭 +港 +渲 +渴 +游 +渺 +渾 +湃 +湄 +湊 +湍 +湖 +湘 +湛 +湟 +湧 +湫 +湮 +湯 +湳 +湾 +湿 +満 +溃 +溅 +溉 +溏 +源 +準 +溜 +溝 +溟 +溢 +溥 +溧 +溪 +溫 +溯 +溱 +溴 +溶 +溺 +溼 +滁 +滂 +滄 +滅 +滇 +滋 +滌 +滑 +滓 +滔 +滕 +滙 +滚 +滝 +滞 +滟 +满 +滢 +滤 +滥 +滦 +滨 +滩 +滬 +滯 +滲 +滴 +滷 +滸 +滾 +滿 +漁 +漂 +漆 +漉 +漏 +漓 +演 +漕 +漠 +漢 +漣 +漩 +漪 +漫 +漬 +漯 +漱 +漲 +漳 +漸 +漾 +漿 +潆 +潇 +潋 +潍 +潑 +潔 +潘 +潛 +潜 +潞 +潟 +潢 +潤 +潦 +潧 +潭 +潮 +潰 +潴 +潸 +潺 +潼 +澀 +澄 +澆 +澈 +澍 +澎 +澗 +澜 +澡 +澤 +澧 +澱 +澳 +澹 +激 +濁 +濂 +濃 +濑 +濒 +濕 +濘 +濛 +濟 +濠 +濡 +濤 +濫 +濬 +濮 +濯 +濱 +濺 +濾 +瀅 +瀆 +瀉 +瀋 +瀏 +瀑 +瀕 +瀘 +瀚 +瀛 +瀝 +瀞 +瀟 +瀧 +瀨 +瀬 +瀰 +瀾 +灌 +灏 +灑 +灘 +灝 +灞 +灣 +火 +灬 +灭 +灯 +灰 +灵 +灶 +灸 +灼 +災 +灾 +灿 +炀 +炁 +炅 +炉 +炊 +炎 +炒 +炔 +炕 +炖 +炙 +炜 +炫 +炬 +炭 +炮 +炯 +炳 +炷 +炸 +点 +為 +炼 +炽 +烁 +烂 +烃 +烈 +烊 +烏 +烘 +烙 +烛 +烟 +烤 +烦 +烧 +烨 +烩 +烫 +烬 +热 +烯 +烷 +烹 +烽 +焉 +焊 +焕 +焖 +焗 +焘 +焙 +焚 +焜 +無 +焦 +焯 +焰 +焱 +然 +焼 +煅 +煉 +煊 +煌 +煎 +煒 +煖 +煙 +煜 +煞 +煤 +煥 +煦 +照 +煨 +煩 +煮 +煲 +煸 +煽 +熄 +熊 +熏 +熒 +熔 +熙 +熟 +熠 +熨 +熬 +熱 +熵 +熹 +熾 +燁 +燃 +燄 +燈 +燉 +燊 +燎 +燒 +燔 +燕 +燙 +燜 +營 +燥 +燦 +燧 +燭 +燮 +燴 +燻 +燼 +燿 +爆 +爍 +爐 +爛 +爪 +爬 +爭 +爰 +爱 +爲 +爵 +父 +爷 +爸 +爹 +爺 +爻 +爽 +爾 +牆 +片 +版 +牌 +牍 +牒 +牙 +牛 +牝 +牟 +牠 +牡 +牢 +牦 +牧 +物 +牯 +牲 +牴 +牵 +特 +牺 +牽 +犀 +犁 +犄 +犊 +犍 +犒 +犢 +犧 +犬 +犯 +状 +犷 +犸 +犹 +狀 +狂 +狄 +狈 +狎 +狐 +狒 +狗 +狙 +狞 +狠 +狡 +狩 +独 +狭 +狮 +狰 +狱 +狸 +狹 +狼 +狽 +猎 +猕 +猖 +猗 +猙 +猛 +猜 +猝 +猥 +猩 +猪 +猫 +猬 +献 +猴 +猶 +猷 +猾 +猿 +獄 +獅 +獎 +獐 +獒 +獗 +獠 +獣 +獨 +獭 +獰 +獲 +獵 +獷 +獸 +獺 +獻 +獼 +獾 +玄 +率 +玉 +王 +玑 +玖 +玛 +玟 +玠 +玥 +玩 +玫 +玮 +环 +现 +玲 +玳 +玷 +玺 +玻 +珀 +珂 +珅 +珈 +珉 +珊 +珍 +珏 +珐 +珑 +珙 +珞 +珠 +珣 +珥 +珩 +珪 +班 +珮 +珲 +珺 +現 +球 +琅 +理 +琇 +琉 +琊 +琍 +琏 +琐 +琛 +琢 +琥 +琦 +琨 +琪 +琬 +琮 +琰 +琲 +琳 +琴 +琵 +琶 +琺 +琼 +瑀 +瑁 +瑄 +瑋 +瑕 +瑗 +瑙 +瑚 +瑛 +瑜 +瑞 +瑟 +瑠 +瑣 +瑤 +瑩 +瑪 +瑯 +瑰 +瑶 +瑾 +璀 +璁 +璃 +璇 +璉 +璋 +璎 +璐 +璜 +璞 +璟 +璧 +璨 +環 +璽 +璿 +瓊 +瓏 +瓒 +瓜 +瓢 +瓣 +瓤 +瓦 +瓮 +瓯 +瓴 +瓶 +瓷 +甄 +甌 +甕 +甘 +甙 +甚 +甜 +生 +產 +産 +甥 +甦 +用 +甩 +甫 +甬 +甭 +甯 +田 +由 +甲 +申 +电 +男 +甸 +町 +画 +甾 +畀 +畅 +界 +畏 +畑 +畔 +留 +畜 +畝 +畢 +略 +畦 +番 +畫 +異 +畲 +畳 +畴 +當 +畸 +畹 +畿 +疆 +疇 +疊 +疏 +疑 +疔 +疖 +疗 +疙 +疚 +疝 +疟 +疡 +疣 +疤 +疥 +疫 +疮 +疯 +疱 +疲 +疳 +疵 +疸 +疹 +疼 +疽 +疾 +痂 +病 +症 +痈 +痉 +痊 +痍 +痒 +痔 +痕 +痘 +痙 +痛 +痞 +痠 +痢 +痣 +痤 +痧 +痨 +痪 +痫 +痰 +痱 +痴 +痹 +痺 +痼 +痿 +瘀 +瘁 +瘋 +瘍 +瘓 +瘘 +瘙 +瘟 +瘠 +瘡 +瘢 +瘤 +瘦 +瘧 +瘩 +瘪 +瘫 +瘴 +瘸 +瘾 +療 +癇 +癌 +癒 +癖 +癜 +癞 +癡 +癢 +癣 +癥 +癫 +癬 +癮 +癱 +癲 +癸 +発 +登 +發 +白 +百 +皂 +的 +皆 +皇 +皈 +皋 +皎 +皑 +皓 +皖 +皙 +皚 +皮 +皰 +皱 +皴 +皺 +皿 +盂 +盃 +盅 +盆 +盈 +益 +盎 +盏 +盐 +监 +盒 +盔 +盖 +盗 +盘 +盛 +盜 +盞 +盟 +盡 +監 +盤 +盥 +盧 +盪 +目 +盯 +盱 +盲 +直 +相 +盹 +盼 +盾 +省 +眈 +眉 +看 +県 +眙 +眞 +真 +眠 +眦 +眨 +眩 +眯 +眶 +眷 +眸 +眺 +眼 +眾 +着 +睁 +睇 +睏 +睐 +睑 +睛 +睜 +睞 +睡 +睢 +督 +睥 +睦 +睨 +睪 +睫 +睬 +睹 +睽 +睾 +睿 +瞄 +瞅 +瞇 +瞋 +瞌 +瞎 +瞑 +瞒 +瞓 +瞞 +瞟 +瞠 +瞥 +瞧 +瞩 +瞪 +瞬 +瞭 +瞰 +瞳 +瞻 +瞼 +瞿 +矇 +矍 +矗 +矚 +矛 +矜 +矢 +矣 +知 +矩 +矫 +短 +矮 +矯 +石 +矶 +矽 +矾 +矿 +码 +砂 +砌 +砍 +砒 +研 +砖 +砗 +砚 +砝 +砣 +砥 +砧 +砭 +砰 +砲 +破 +砷 +砸 +砺 +砼 +砾 +础 +硅 +硐 +硒 +硕 +硝 +硫 +硬 +确 +硯 +硼 +碁 +碇 +碉 +碌 +碍 +碎 +碑 +碓 +碗 +碘 +碚 +碛 +碟 +碣 +碧 +碩 +碰 +碱 +碳 +碴 +確 +碼 +碾 +磁 +磅 +磊 +磋 +磐 +磕 +磚 +磡 +磨 +磬 +磯 +磲 +磷 +磺 +礁 +礎 +礙 +礡 +礦 +礪 +礫 +礴 +示 +礼 +社 +祀 +祁 +祂 +祇 +祈 +祉 +祎 +祐 +祕 +祖 +祗 +祚 +祛 +祜 +祝 +神 +祟 +祠 +祢 +祥 +票 +祭 +祯 +祷 +祸 +祺 +祿 +禀 +禁 +禄 +禅 +禍 +禎 +福 +禛 +禦 +禧 +禪 +禮 +禱 +禹 +禺 +离 +禽 +禾 +禿 +秀 +私 +秃 +秆 +秉 +秋 +种 +科 +秒 +秘 +租 +秣 +秤 +秦 +秧 +秩 +秭 +积 +称 +秸 +移 +秽 +稀 +稅 +程 +稍 +税 +稔 +稗 +稚 +稜 +稞 +稟 +稠 +稣 +種 +稱 +稲 +稳 +稷 +稹 +稻 +稼 +稽 +稿 +穀 +穂 +穆 +穌 +積 +穎 +穗 +穢 +穩 +穫 +穴 +究 +穷 +穹 +空 +穿 +突 +窃 +窄 +窈 +窍 +窑 +窒 +窓 +窕 +窖 +窗 +窘 +窜 +窝 +窟 +窠 +窥 +窦 +窨 +窩 +窪 +窮 +窯 +窺 +窿 +竄 +竅 +竇 +竊 +立 +竖 +站 +竜 +竞 +竟 +章 +竣 +童 +竭 +端 +競 +竹 +竺 +竽 +竿 +笃 +笆 +笈 +笋 +笏 +笑 +笔 +笙 +笛 +笞 +笠 +符 +笨 +第 +笹 +笺 +笼 +筆 +等 +筊 +筋 +筍 +筏 +筐 +筑 +筒 +答 +策 +筛 +筝 +筠 +筱 +筲 +筵 +筷 +筹 +签 +简 +箇 +箋 +箍 +箏 +箐 +箔 +箕 +算 +箝 +管 +箩 +箫 +箭 +箱 +箴 +箸 +節 +篁 +範 +篆 +篇 +築 +篑 +篓 +篙 +篝 +篠 +篡 +篤 +篩 +篪 +篮 +篱 +篷 +簇 +簌 +簍 +簡 +簦 +簧 +簪 +簫 +簷 +簸 +簽 +簾 +簿 +籁 +籃 +籌 +籍 +籐 +籟 +籠 +籤 +籬 +籮 +籲 +米 +类 +籼 +籽 +粄 +粉 +粑 +粒 +粕 +粗 +粘 +粟 +粤 +粥 +粧 +粪 +粮 +粱 +粲 +粳 +粵 +粹 +粼 +粽 +精 +粿 +糅 +糊 +糍 +糕 +糖 +糗 +糙 +糜 +糞 +糟 +糠 +糧 +糬 +糯 +糰 +糸 +系 +糾 +紀 +紂 +約 +紅 +紉 +紊 +紋 +納 +紐 +紓 +純 +紗 +紘 +紙 +級 +紛 +紜 +素 +紡 +索 +紧 +紫 +紮 +累 +細 +紳 +紹 +紺 +終 +絃 +組 +絆 +経 +結 +絕 +絞 +絡 +絢 +給 +絨 +絮 +統 +絲 +絳 +絵 +絶 +絹 +綁 +綏 +綑 +經 +継 +続 +綜 +綠 +綢 +綦 +綫 +綬 +維 +綱 +網 +綴 +綵 +綸 +綺 +綻 +綽 +綾 +綿 +緊 +緋 +総 +緑 +緒 +緘 +線 +緝 +緞 +締 +緣 +編 +緩 +緬 +緯 +練 +緹 +緻 +縁 +縄 +縈 +縛 +縝 +縣 +縫 +縮 +縱 +縴 +縷 +總 +績 +繁 +繃 +繆 +繇 +繋 +織 +繕 +繚 +繞 +繡 +繩 +繪 +繫 +繭 +繳 +繹 +繼 +繽 +纂 +續 +纍 +纏 +纓 +纔 +纖 +纜 +纠 +红 +纣 +纤 +约 +级 +纨 +纪 +纫 +纬 +纭 +纯 +纰 +纱 +纲 +纳 +纵 +纶 +纷 +纸 +纹 +纺 +纽 +纾 +线 +绀 +练 +组 +绅 +细 +织 +终 +绊 +绍 +绎 +经 +绑 +绒 +结 +绔 +绕 +绘 +给 +绚 +绛 +络 +绝 +绞 +统 +绡 +绢 +绣 +绥 +绦 +继 +绩 +绪 +绫 +续 +绮 +绯 +绰 +绳 +维 +绵 +绶 +绷 +绸 +绻 +综 +绽 +绾 +绿 +缀 +缄 +缅 +缆 +缇 +缈 +缉 +缎 +缓 +缔 +缕 +编 +缘 +缙 +缚 +缜 +缝 +缠 +缢 +缤 +缥 +缨 +缩 +缪 +缭 +缮 +缰 +缱 +缴 +缸 +缺 +缽 +罂 +罄 +罌 +罐 +网 +罔 +罕 +罗 +罚 +罡 +罢 +罩 +罪 +置 +罰 +署 +罵 +罷 +罹 +羁 +羅 +羈 +羊 +羌 +美 +羔 +羚 +羞 +羟 +羡 +羣 +群 +羥 +羧 +羨 +義 +羯 +羲 +羸 +羹 +羽 +羿 +翁 +翅 +翊 +翌 +翎 +習 +翔 +翘 +翟 +翠 +翡 +翦 +翩 +翰 +翱 +翳 +翹 +翻 +翼 +耀 +老 +考 +耄 +者 +耆 +耋 +而 +耍 +耐 +耒 +耕 +耗 +耘 +耙 +耦 +耨 +耳 +耶 +耷 +耸 +耻 +耽 +耿 +聂 +聆 +聊 +聋 +职 +聒 +联 +聖 +聘 +聚 +聞 +聪 +聯 +聰 +聲 +聳 +聴 +聶 +職 +聽 +聾 +聿 +肃 +肄 +肅 +肆 +肇 +肉 +肋 +肌 +肏 +肓 +肖 +肘 +肚 +肛 +肝 +肠 +股 +肢 +肤 +肥 +肩 +肪 +肮 +肯 +肱 +育 +肴 +肺 +肽 +肾 +肿 +胀 +胁 +胃 +胄 +胆 +背 +胍 +胎 +胖 +胚 +胛 +胜 +胝 +胞 +胡 +胤 +胥 +胧 +胫 +胭 +胯 +胰 +胱 +胳 +胴 +胶 +胸 +胺 +能 +脂 +脅 +脆 +脇 +脈 +脉 +脊 +脍 +脏 +脐 +脑 +脓 +脖 +脘 +脚 +脛 +脣 +脩 +脫 +脯 +脱 +脲 +脳 +脸 +脹 +脾 +腆 +腈 +腊 +腋 +腌 +腎 +腐 +腑 +腓 +腔 +腕 +腥 +腦 +腩 +腫 +腭 +腮 +腰 +腱 +腳 +腴 +腸 +腹 +腺 +腻 +腼 +腾 +腿 +膀 +膈 +膊 +膏 +膑 +膘 +膚 +膛 +膜 +膝 +膠 +膦 +膨 +膩 +膳 +膺 +膻 +膽 +膾 +膿 +臀 +臂 +臃 +臆 +臉 +臊 +臍 +臓 +臘 +臟 +臣 +臥 +臧 +臨 +自 +臬 +臭 +至 +致 +臺 +臻 +臼 +臾 +舀 +舂 +舅 +舆 +與 +興 +舉 +舊 +舌 +舍 +舎 +舐 +舒 +舔 +舖 +舗 +舛 +舜 +舞 +舟 +航 +舫 +般 +舰 +舱 +舵 +舶 +舷 +舸 +船 +舺 +舾 +艇 +艋 +艘 +艙 +艦 +艮 +良 +艰 +艱 +色 +艳 +艷 +艹 +艺 +艾 +节 +芃 +芈 +芊 +芋 +芍 +芎 +芒 +芙 +芜 +芝 +芡 +芥 +芦 +芩 +芪 +芫 +芬 +芭 +芮 +芯 +花 +芳 +芷 +芸 +芹 +芻 +芽 +芾 +苁 +苄 +苇 +苋 +苍 +苏 +苑 +苒 +苓 +苔 +苕 +苗 +苛 +苜 +苞 +苟 +苡 +苣 +若 +苦 +苫 +苯 +英 +苷 +苹 +苻 +茁 +茂 +范 +茄 +茅 +茉 +茎 +茏 +茗 +茜 +茧 +茨 +茫 +茬 +茭 +茯 +茱 +茲 +茴 +茵 +茶 +茸 +茹 +茼 +荀 +荃 +荆 +草 +荊 +荏 +荐 +荒 +荔 +荖 +荘 +荚 +荞 +荟 +荠 +荡 +荣 +荤 +荥 +荧 +荨 +荪 +荫 +药 +荳 +荷 +荸 +荻 +荼 +荽 +莅 +莆 +莉 +莊 +莎 +莒 +莓 +莖 +莘 +莞 +莠 +莢 +莧 +莪 +莫 +莱 +莲 +莴 +获 +莹 +莺 +莽 +莿 +菀 +菁 +菅 +菇 +菈 +菊 +菌 +菏 +菓 +菖 +菘 +菜 +菟 +菠 +菡 +菩 +華 +菱 +菲 +菸 +菽 +萁 +萃 +萄 +萊 +萋 +萌 +萍 +萎 +萘 +萝 +萤 +营 +萦 +萧 +萨 +萩 +萬 +萱 +萵 +萸 +萼 +落 +葆 +葉 +著 +葚 +葛 +葡 +董 +葦 +葩 +葫 +葬 +葭 +葯 +葱 +葳 +葵 +葷 +葺 +蒂 +蒋 +蒐 +蒔 +蒙 +蒜 +蒞 +蒟 +蒡 +蒨 +蒲 +蒸 +蒹 +蒻 +蒼 +蒿 +蓁 +蓄 +蓆 +蓉 +蓋 +蓑 +蓓 +蓖 +蓝 +蓟 +蓦 +蓬 +蓮 +蓼 +蓿 +蔑 +蔓 +蔔 +蔗 +蔘 +蔚 +蔡 +蔣 +蔥 +蔫 +蔬 +蔭 +蔵 +蔷 +蔺 +蔻 +蔼 +蔽 +蕁 +蕃 +蕈 +蕉 +蕊 +蕎 +蕙 +蕤 +蕨 +蕩 +蕪 +蕭 +蕲 +蕴 +蕻 +蕾 +薄 +薅 +薇 +薈 +薊 +薏 +薑 +薔 +薙 +薛 +薦 +薨 +薩 +薪 +薬 +薯 +薰 +薹 +藉 +藍 +藏 +藐 +藓 +藕 +藜 +藝 +藤 +藥 +藩 +藹 +藻 +藿 +蘆 +蘇 +蘊 +蘋 +蘑 +蘚 +蘭 +蘸 +蘼 +蘿 +虎 +虏 +虐 +虑 +虔 +處 +虚 +虛 +虜 +虞 +號 +虢 +虧 +虫 +虬 +虱 +虹 +虻 +虽 +虾 +蚀 +蚁 +蚂 +蚊 +蚌 +蚓 +蚕 +蚜 +蚝 +蚣 +蚤 +蚩 +蚪 +蚯 +蚱 +蚵 +蛀 +蛆 +蛇 +蛊 +蛋 +蛎 +蛐 +蛔 +蛙 +蛛 +蛟 +蛤 +蛭 +蛮 +蛰 +蛳 +蛹 +蛻 +蛾 +蜀 +蜂 +蜃 +蜆 +蜇 +蜈 +蜊 +蜍 +蜒 +蜓 +蜕 +蜗 +蜘 +蜚 +蜜 +蜡 +蜢 +蜥 +蜱 +蜴 +蜷 +蜻 +蜿 +蝇 +蝈 +蝉 +蝌 +蝎 +蝕 +蝗 +蝙 +蝟 +蝠 +蝦 +蝨 +蝴 +蝶 +蝸 +蝼 +螂 +螃 +融 +螞 +螢 +螨 +螯 +螳 +螺 +蟀 +蟄 +蟆 +蟋 +蟎 +蟑 +蟒 +蟠 +蟬 +蟲 +蟹 +蟻 +蟾 +蠅 +蠍 +蠔 +蠕 +蠛 +蠟 +蠡 +蠢 +蠣 +蠱 +蠶 +蠹 +蠻 +血 +衄 +衅 +衆 +行 +衍 +術 +衔 +街 +衙 +衛 +衝 +衞 +衡 +衢 +衣 +补 +表 +衩 +衫 +衬 +衮 +衰 +衲 +衷 +衹 +衾 +衿 +袁 +袂 +袄 +袅 +袈 +袋 +袍 +袒 +袖 +袜 +袞 +袤 +袪 +被 +袭 +袱 +裁 +裂 +装 +裆 +裊 +裏 +裔 +裕 +裘 +裙 +補 +裝 +裟 +裡 +裤 +裨 +裱 +裳 +裴 +裸 +裹 +製 +裾 +褂 +複 +褐 +褒 +褓 +褔 +褚 +褥 +褪 +褫 +褲 +褶 +褻 +襁 +襄 +襟 +襠 +襪 +襬 +襯 +襲 +西 +要 +覃 +覆 +覇 +見 +規 +覓 +視 +覚 +覦 +覧 +親 +覬 +観 +覷 +覺 +覽 +觀 +见 +观 +规 +觅 +视 +览 +觉 +觊 +觎 +觐 +觑 +角 +觞 +解 +觥 +触 +觸 +言 +訂 +計 +訊 +討 +訓 +訕 +訖 +託 +記 +訛 +訝 +訟 +訣 +訥 +訪 +設 +許 +訳 +訴 +訶 +診 +註 +証 +詆 +詐 +詔 +評 +詛 +詞 +詠 +詡 +詢 +詣 +試 +詩 +詫 +詬 +詭 +詮 +詰 +話 +該 +詳 +詹 +詼 +誅 +誇 +誉 +誌 +認 +誓 +誕 +誘 +語 +誠 +誡 +誣 +誤 +誥 +誦 +誨 +說 +説 +読 +誰 +課 +誹 +誼 +調 +諄 +談 +請 +諏 +諒 +論 +諗 +諜 +諡 +諦 +諧 +諫 +諭 +諮 +諱 +諳 +諷 +諸 +諺 +諾 +謀 +謁 +謂 +謄 +謊 +謎 +謐 +謔 +謗 +謙 +講 +謝 +謠 +謨 +謬 +謹 +謾 +譁 +證 +譎 +譏 +識 +譙 +譚 +譜 +警 +譬 +譯 +議 +譲 +譴 +護 +譽 +讀 +變 +讓 +讚 +讞 +计 +订 +认 +讥 +讧 +讨 +让 +讪 +讫 +训 +议 +讯 +记 +讲 +讳 +讴 +讶 +讷 +许 +讹 +论 +讼 +讽 +设 +访 +诀 +证 +诃 +评 +诅 +识 +诈 +诉 +诊 +诋 +词 +诏 +译 +试 +诗 +诘 +诙 +诚 +诛 +话 +诞 +诟 +诠 +诡 +询 +诣 +诤 +该 +详 +诧 +诩 +诫 +诬 +语 +误 +诰 +诱 +诲 +说 +诵 +诶 +请 +诸 +诺 +读 +诽 +课 +诿 +谀 +谁 +调 +谄 +谅 +谆 +谈 +谊 +谋 +谌 +谍 +谎 +谏 +谐 +谑 +谒 +谓 +谔 +谕 +谗 +谘 +谙 +谚 +谛 +谜 +谟 +谢 +谣 +谤 +谥 +谦 +谧 +谨 +谩 +谪 +谬 +谭 +谯 +谱 +谲 +谴 +谶 +谷 +豁 +豆 +豇 +豈 +豉 +豊 +豌 +豎 +豐 +豔 +豚 +象 +豢 +豪 +豫 +豬 +豹 +豺 +貂 +貅 +貌 +貓 +貔 +貘 +貝 +貞 +負 +財 +貢 +貧 +貨 +販 +貪 +貫 +責 +貯 +貰 +貳 +貴 +貶 +買 +貸 +費 +貼 +貽 +貿 +賀 +賁 +賂 +賃 +賄 +資 +賈 +賊 +賑 +賓 +賜 +賞 +賠 +賡 +賢 +賣 +賤 +賦 +質 +賬 +賭 +賴 +賺 +購 +賽 +贅 +贈 +贊 +贍 +贏 +贓 +贖 +贛 +贝 +贞 +负 +贡 +财 +责 +贤 +败 +账 +货 +质 +贩 +贪 +贫 +贬 +购 +贮 +贯 +贰 +贱 +贲 +贴 +贵 +贷 +贸 +费 +贺 +贻 +贼 +贾 +贿 +赁 +赂 +赃 +资 +赅 +赈 +赊 +赋 +赌 +赎 +赏 +赐 +赓 +赔 +赖 +赘 +赚 +赛 +赝 +赞 +赠 +赡 +赢 +赣 +赤 +赦 +赧 +赫 +赭 +走 +赳 +赴 +赵 +赶 +起 +趁 +超 +越 +趋 +趕 +趙 +趟 +趣 +趨 +足 +趴 +趵 +趸 +趺 +趾 +跃 +跄 +跆 +跋 +跌 +跎 +跑 +跖 +跚 +跛 +距 +跟 +跡 +跤 +跨 +跩 +跪 +路 +跳 +践 +跷 +跹 +跺 +跻 +踉 +踊 +踌 +踏 +踐 +踝 +踞 +踟 +踢 +踩 +踪 +踮 +踱 +踴 +踵 +踹 +蹂 +蹄 +蹇 +蹈 +蹉 +蹊 +蹋 +蹑 +蹒 +蹙 +蹟 +蹣 +蹤 +蹦 +蹩 +蹬 +蹭 +蹲 +蹴 +蹶 +蹺 +蹼 +蹿 +躁 +躇 +躉 +躊 +躋 +躍 +躏 +躪 +身 +躬 +躯 +躲 +躺 +軀 +車 +軋 +軌 +軍 +軒 +軟 +転 +軸 +軼 +軽 +軾 +較 +載 +輒 +輓 +輔 +輕 +輛 +輝 +輟 +輩 +輪 +輯 +輸 +輻 +輾 +輿 +轄 +轅 +轆 +轉 +轍 +轎 +轟 +车 +轧 +轨 +轩 +转 +轭 +轮 +软 +轰 +轲 +轴 +轶 +轻 +轼 +载 +轿 +较 +辄 +辅 +辆 +辇 +辈 +辉 +辊 +辍 +辐 +辑 +输 +辕 +辖 +辗 +辘 +辙 +辛 +辜 +辞 +辟 +辣 +辦 +辨 +辩 +辫 +辭 +辮 +辯 +辰 +辱 +農 +边 +辺 +辻 +込 +辽 +达 +迁 +迂 +迄 +迅 +过 +迈 +迎 +运 +近 +返 +还 +这 +进 +远 +违 +连 +迟 +迢 +迤 +迥 +迦 +迩 +迪 +迫 +迭 +述 +迴 +迷 +迸 +迹 +迺 +追 +退 +送 +适 +逃 +逅 +逆 +选 +逊 +逍 +透 +逐 +递 +途 +逕 +逗 +這 +通 +逛 +逝 +逞 +速 +造 +逢 +連 +逮 +週 +進 +逵 +逶 +逸 +逻 +逼 +逾 +遁 +遂 +遅 +遇 +遊 +運 +遍 +過 +遏 +遐 +遑 +遒 +道 +達 +違 +遗 +遙 +遛 +遜 +遞 +遠 +遢 +遣 +遥 +遨 +適 +遭 +遮 +遲 +遴 +遵 +遶 +遷 +選 +遺 +遼 +遽 +避 +邀 +邁 +邂 +邃 +還 +邇 +邈 +邊 +邋 +邏 +邑 +邓 +邕 +邛 +邝 +邢 +那 +邦 +邨 +邪 +邬 +邮 +邯 +邰 +邱 +邳 +邵 +邸 +邹 +邺 +邻 +郁 +郅 +郊 +郎 +郑 +郜 +郝 +郡 +郢 +郤 +郦 +郧 +部 +郫 +郭 +郴 +郵 +郷 +郸 +都 +鄂 +鄉 +鄒 +鄔 +鄙 +鄞 +鄢 +鄧 +鄭 +鄰 +鄱 +鄲 +鄺 +酉 +酊 +酋 +酌 +配 +酐 +酒 +酗 +酚 +酝 +酢 +酣 +酥 +酩 +酪 +酬 +酮 +酯 +酰 +酱 +酵 +酶 +酷 +酸 +酿 +醃 +醇 +醉 +醋 +醍 +醐 +醒 +醚 +醛 +醜 +醞 +醣 +醪 +醫 +醬 +醮 +醯 +醴 +醺 +釀 +釁 +采 +釉 +释 +釋 +里 +重 +野 +量 +釐 +金 +釗 +釘 +釜 +針 +釣 +釦 +釧 +釵 +鈀 +鈉 +鈍 +鈎 +鈔 +鈕 +鈞 +鈣 +鈦 +鈪 +鈴 +鈺 +鈾 +鉀 +鉄 +鉅 +鉉 +鉑 +鉗 +鉚 +鉛 +鉤 +鉴 +鉻 +銀 +銃 +銅 +銑 +銓 +銖 +銘 +銜 +銬 +銭 +銮 +銳 +銷 +銹 +鋁 +鋅 +鋒 +鋤 +鋪 +鋰 +鋸 +鋼 +錄 +錐 +錘 +錚 +錠 +錢 +錦 +錨 +錫 +錮 +錯 +録 +錳 +錶 +鍊 +鍋 +鍍 +鍛 +鍥 +鍰 +鍵 +鍺 +鍾 +鎂 +鎊 +鎌 +鎏 +鎔 +鎖 +鎗 +鎚 +鎧 +鎬 +鎮 +鎳 +鏈 +鏖 +鏗 +鏘 +鏞 +鏟 +鏡 +鏢 +鏤 +鏽 +鐘 +鐮 +鐲 +鐳 +鐵 +鐸 +鐺 +鑄 +鑊 +鑑 +鑒 +鑣 +鑫 +鑰 +鑲 +鑼 +鑽 +鑾 +鑿 +针 +钉 +钊 +钎 +钏 +钒 +钓 +钗 +钙 +钛 +钜 +钝 +钞 +钟 +钠 +钡 +钢 +钣 +钤 +钥 +钦 +钧 +钨 +钩 +钮 +钯 +钰 +钱 +钳 +钴 +钵 +钺 +钻 +钼 +钾 +钿 +铀 +铁 +铂 +铃 +铄 +铅 +铆 +铉 +铎 +铐 +铛 +铜 +铝 +铠 +铡 +铢 +铣 +铤 +铨 +铩 +铬 +铭 +铮 +铰 +铲 +铵 +银 +铸 +铺 +链 +铿 +销 +锁 +锂 +锄 +锅 +锆 +锈 +锉 +锋 +锌 +锏 +锐 +锑 +错 +锚 +锟 +锡 +锢 +锣 +锤 +锥 +锦 +锭 +键 +锯 +锰 +锲 +锵 +锹 +锺 +锻 +镀 +镁 +镂 +镇 +镉 +镌 +镍 +镐 +镑 +镕 +镖 +镗 +镛 +镜 +镣 +镭 +镯 +镰 +镳 +镶 +長 +长 +門 +閃 +閉 +開 +閎 +閏 +閑 +閒 +間 +閔 +閘 +閡 +関 +閣 +閥 +閨 +閩 +閱 +閲 +閹 +閻 +閾 +闆 +闇 +闊 +闌 +闍 +闔 +闕 +闖 +闘 +關 +闡 +闢 +门 +闪 +闫 +闭 +问 +闯 +闰 +闲 +间 +闵 +闷 +闸 +闹 +闺 +闻 +闽 +闾 +阀 +阁 +阂 +阅 +阆 +阇 +阈 +阉 +阎 +阐 +阑 +阔 +阕 +阖 +阙 +阚 +阜 +队 +阡 +阪 +阮 +阱 +防 +阳 +阴 +阵 +阶 +阻 +阿 +陀 +陂 +附 +际 +陆 +陇 +陈 +陋 +陌 +降 +限 +陕 +陛 +陝 +陞 +陟 +陡 +院 +陣 +除 +陨 +险 +陪 +陰 +陲 +陳 +陵 +陶 +陷 +陸 +険 +陽 +隅 +隆 +隈 +隊 +隋 +隍 +階 +随 +隐 +隔 +隕 +隘 +隙 +際 +障 +隠 +隣 +隧 +隨 +險 +隱 +隴 +隶 +隸 +隻 +隼 +隽 +难 +雀 +雁 +雄 +雅 +集 +雇 +雉 +雋 +雌 +雍 +雎 +雏 +雑 +雒 +雕 +雖 +雙 +雛 +雜 +雞 +離 +難 +雨 +雪 +雯 +雰 +雲 +雳 +零 +雷 +雹 +電 +雾 +需 +霁 +霄 +霆 +震 +霈 +霉 +霊 +霍 +霎 +霏 +霑 +霓 +霖 +霜 +霞 +霧 +霭 +霰 +露 +霸 +霹 +霽 +霾 +靂 +靄 +靈 +青 +靓 +靖 +静 +靚 +靛 +靜 +非 +靠 +靡 +面 +靥 +靦 +革 +靳 +靴 +靶 +靼 +鞅 +鞋 +鞍 +鞏 +鞑 +鞘 +鞠 +鞣 +鞦 +鞭 +韆 +韋 +韌 +韓 +韜 +韦 +韧 +韩 +韬 +韭 +音 +韵 +韶 +韻 +響 +頁 +頂 +頃 +項 +順 +須 +頌 +預 +頑 +頒 +頓 +頗 +領 +頜 +頡 +頤 +頫 +頭 +頰 +頷 +頸 +頹 +頻 +頼 +顆 +題 +額 +顎 +顏 +顔 +願 +顛 +類 +顧 +顫 +顯 +顱 +顴 +页 +顶 +顷 +项 +顺 +须 +顼 +顽 +顾 +顿 +颁 +颂 +预 +颅 +领 +颇 +颈 +颉 +颊 +颌 +颍 +颐 +频 +颓 +颔 +颖 +颗 +题 +颚 +颛 +颜 +额 +颞 +颠 +颡 +颢 +颤 +颦 +颧 +風 +颯 +颱 +颳 +颶 +颼 +飄 +飆 +风 +飒 +飓 +飕 +飘 +飙 +飚 +飛 +飞 +食 +飢 +飨 +飩 +飪 +飯 +飲 +飼 +飽 +飾 +餃 +餅 +餉 +養 +餌 +餐 +餒 +餓 +餘 +餚 +餛 +餞 +餡 +館 +餮 +餵 +餾 +饅 +饈 +饋 +饌 +饍 +饑 +饒 +饕 +饗 +饞 +饥 +饨 +饪 +饬 +饭 +饮 +饯 +饰 +饱 +饲 +饴 +饵 +饶 +饷 +饺 +饼 +饽 +饿 +馀 +馁 +馄 +馅 +馆 +馈 +馋 +馍 +馏 +馒 +馔 +首 +馗 +香 +馥 +馨 +馬 +馭 +馮 +馳 +馴 +駁 +駄 +駅 +駆 +駐 +駒 +駕 +駛 +駝 +駭 +駱 +駿 +騁 +騎 +騏 +験 +騙 +騨 +騰 +騷 +驀 +驅 +驊 +驍 +驒 +驕 +驗 +驚 +驛 +驟 +驢 +驥 +马 +驭 +驮 +驯 +驰 +驱 +驳 +驴 +驶 +驷 +驸 +驹 +驻 +驼 +驾 +驿 +骁 +骂 +骄 +骅 +骆 +骇 +骈 +骊 +骋 +验 +骏 +骐 +骑 +骗 +骚 +骛 +骜 +骞 +骠 +骡 +骤 +骥 +骧 +骨 +骯 +骰 +骶 +骷 +骸 +骼 +髂 +髅 +髋 +髏 +髒 +髓 +體 +髖 +高 +髦 +髪 +髮 +髯 +髻 +鬃 +鬆 +鬍 +鬓 +鬚 +鬟 +鬢 +鬣 +鬥 +鬧 +鬱 +鬼 +魁 +魂 +魄 +魅 +魇 +魍 +魏 +魔 +魘 +魚 +魯 +魷 +鮑 +鮨 +鮪 +鮭 +鮮 +鯉 +鯊 +鯖 +鯛 +鯨 +鯰 +鯽 +鰍 +鰓 +鰭 +鰲 +鰻 +鰾 +鱈 +鱉 +鱔 +鱗 +鱷 +鱸 +鱼 +鱿 +鲁 +鲈 +鲍 +鲑 +鲛 +鲜 +鲟 +鲢 +鲤 +鲨 +鲫 +鲱 +鲲 +鲶 +鲷 +鲸 +鳃 +鳄 +鳅 +鳌 +鳍 +鳕 +鳖 +鳗 +鳝 +鳞 +鳥 +鳩 +鳳 +鳴 +鳶 +鴉 +鴕 +鴛 +鴦 +鴨 +鴻 +鴿 +鵑 +鵜 +鵝 +鵡 +鵬 +鵰 +鵲 +鶘 +鶩 +鶯 +鶴 +鷗 +鷲 +鷹 +鷺 +鸚 +鸞 +鸟 +鸠 +鸡 +鸢 +鸣 +鸥 +鸦 +鸨 +鸪 +鸭 +鸯 +鸳 +鸵 +鸽 +鸾 +鸿 +鹂 +鹃 +鹄 +鹅 +鹈 +鹉 +鹊 +鹌 +鹏 +鹑 +鹕 +鹘 +鹜 +鹞 +鹤 +鹦 +鹧 +鹫 +鹭 +鹰 +鹳 +鹵 +鹹 +鹼 +鹽 +鹿 +麂 +麋 +麒 +麓 +麗 +麝 +麟 +麥 +麦 +麩 +麴 +麵 +麸 +麺 +麻 +麼 +麽 +麾 +黃 +黄 +黍 +黎 +黏 +黑 +黒 +黔 +默 +黛 +黜 +黝 +點 +黠 +黨 +黯 +黴 +鼋 +鼎 +鼐 +鼓 +鼠 +鼬 +鼹 +鼻 +鼾 +齁 +齊 +齋 +齐 +齒 +齡 +齢 +齣 +齦 +齿 +龄 +龅 +龈 +龊 +龋 +龌 +龍 +龐 +龔 +龕 +龙 +龚 +龛 +龜 +龟 +︰ +︱ +︶ +︿ +﹁ +﹂ +﹍ +﹏ +﹐ +﹑ +﹒ +﹔ +﹕ +﹖ +﹗ +﹙ +﹚ +﹝ +﹞ +﹡ +﹣ +! +" +# +$ +% +& +' +( +) +* ++ +, +- +. +/ +0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +: +; +< += +> +? +@ +[ +\ +] +^ +_ +` +a +b +c +d +e +f +g +h +i +j +k +l +m +n +o +p +q +r +s +t +u +v +w +x +y +z +{ +| +} +~ +。 +「 +」 +、 +・ +ッ +ー +イ +ク +シ +ス +ト +ノ +フ +ラ +ル +ン +゙ +゚ + ̄ +¥ +👍 +🔥 +😂 +😎 +... +yam +10 +2017 +12 +11 +2016 +20 +30 +15 +06 +lofter +##s +2015 +by +16 +14 +18 +13 +24 +17 +2014 +21 +##0 +22 +19 +25 +23 +com +100 +00 +05 +2013 +##a +03 +09 +08 +28 +##2 +50 +01 +04 +##1 +27 +02 +2012 +##3 +26 +##e +07 +##8 +##5 +##6 +##4 +##9 +##7 +29 +2011 +40 +##t +2010 +##o +##d +##i +2009 +##n +app +www +the +##m +31 +##c +##l +##y +##r +##g +2008 +60 +http +200 +qq +##p +80 +##f +google +pixnet +90 +cookies +tripadvisor +500 +##er +##k +35 +##h +facebook +2007 +2000 +70 +##b +of +##x +##u +45 +300 +iphone +32 +1000 +2006 +48 +ip +36 +in +38 +3d +##w +##ing +55 +ctrip +##on +##v +33 +##の +to +34 +400 +id +2005 +it +37 +windows +llc +top +99 +42 +39 +000 +led +at +##an +41 +51 +52 +46 +49 +43 +53 +44 +##z +android +58 +and +59 +2004 +56 +vr +##か +5000 +2003 +47 +blogthis +twitter +54 +##le +150 +ok +2018 +57 +75 +cn +no +ios +##in +##mm +##00 +800 +on +te +3000 +65 +2001 +360 +95 +ig +lv +120 +##ng +##を +##us +##に +pc +てす +── +600 +##te +85 +2002 +88 +##ed +html +ncc +wifi +email +64 +blog +is +##10 +##て +mail +online +##al +dvd +##ic +studio +##は +##℃ +##ia +##と +line +vip +72 +##q +98 +##ce +##en +for +##is +##ra +##es +##j +usb +net +cp +1999 +asia +4g +##cm +diy +new +3c +##お +ta +66 +language +vs +apple +tw +86 +web +##ne +ipad +62 +you +##re +101 +68 +##tion +ps +de +bt +pony +atm +##2017 +1998 +67 +##ch +ceo +##or +go +##na +av +pro +cafe +96 +pinterest +97 +63 +pixstyleme3c +##ta +more +said +##2016 +1997 +mp3 +700 +##ll +nba +jun +##20 +92 +tv +1995 +pm +61 +76 +nbsp +250 +##ie +linux +##ma +cd +110 +hd +##17 +78 +##ion +77 +6000 +am +##th +##st +94 +##se +##et +69 +180 +gdp +my +105 +81 +abc +89 +flash +79 +one +93 +1990 +1996 +##ck +gps +##も +##ly +web885 +106 +2020 +91 +##ge +4000 +1500 +xd +boss +isbn +1994 +org +##ry +me +love +##11 +0fork +73 +##12 +3g +##ter +##ar +71 +82 +##la +hotel +130 +1970 +pk +83 +87 +140 +ie +##os +##30 +##el +74 +##50 +seo +cpu +##ml +p2p +84 +may +##る +sun +tue +internet +cc +posted +youtube +##at +##ン +##man +ii +##ル +##15 +abs +nt +pdf +yahoo +ago +1980 +##it +news +mac +104 +##てす +##me +##り +java +1992 +spa +##de +##nt +hk +all +plus +la +1993 +##mb +##16 +##ve +west +##da +160 +air +##い +##ps +から +##to +1989 +logo +htc +php +https +fi +momo +##son +sat +##ke +##80 +ebd +suv +wi +day +apk +##88 +##um +mv +galaxy +wiki +or +brake +##ス +1200 +する +this +1991 +mon +##こ +❤2017 +po +##ない +javascript +life +home +june +##ss +system +900 +##ー +##0 +pp +1988 +world +fb +4k +br +##as +ic +ai +leonardo +safari +##60 +live +free +xx +wed +win7 +kiehl +##co +lg +o2o +##go +us +235 +1949 +mm +しい +vfm +kanye +##90 +##2015 +##id +jr +##ey +123 +rss +##sa +##ro +##am +##no +thu +fri +350 +##sh +##ki +103 +comments +name +##のて +##pe +##ine +max +1987 +8000 +uber +##mi +##ton +wordpress +office +1986 +1985 +##ment +107 +bd +win10 +##ld +##li +gmail +bb +dior +##rs +##ri +##rd +##ます +up +cad +##® +dr +して +read +##21 +をお +##io +##99 +url +1984 +pvc +paypal +show +policy +##40 +##ty +##18 +with +##★ +##01 +txt +102 +##ba +dna +from +post +mini +ar +taiwan +john +##ga +privacy +agoda +##13 +##ny +word +##24 +##22 +##by +##ur +##hz +1982 +##ang +265 +cookie +netscape +108 +##ka +##~ +##ad +house +share +note +ibm +code +hello +nike +sim +survey +##016 +1979 +1950 +wikia +##32 +##017 +5g +cbc +##tor +##kg +1983 +##rt +##14 +campaign +store +2500 +os +##ct +##ts +##° +170 +api +##ns +365 +excel +##な +##ao +##ら +##し +~~ +##nd +university +163 +には +518 +##70 +##ya +##il +##25 +pierre +ipo +0020 +897 +##23 +hotels +##ian +のお +125 +years +6606 +##ers +##26 +high +##day +time +##ay +bug +##line +##く +##す +##be +xp +talk2yam +yamservice +10000 +coco +##dy +sony +##ies +1978 +microsoft +david +people +##ha +1960 +instagram +intel +その +##ot +iso +1981 +##va +115 +##mo +##land +xxx +man +co +ltxsw +##ation +baby +220 +##pa +##ol +1945 +7000 +tag +450 +##ue +msn +##31 +oppo +##ト +##ca +control +##om +st +chrome +##ure +##ん +be +##き +lol +##19 +した +##bo +240 +lady +##100 +##way +##から +4600 +##ko +##do +##un +4s +corporation +168 +##ni +herme +##28 +cp +978 +##up +##06 +ui +##ds +ppt +admin +three +します +bbc +re +128 +##48 +ca +##015 +##35 +hp +##ee +tpp +##た +##ive +×× +root +##cc +##ました +##ble +##ity +adobe +park +114 +et +oled +city +##ex +##ler +##ap +china +##book +20000 +view +##ice +global +##km +your +hong +##mg +out +##ms +ng +ebay +##29 +menu +ubuntu +##cy +rom +##view +open +ktv +do +server +##lo +if +english +##ね +##5 +##oo +1600 +##02 +step1 +kong +club +135 +july +inc +1976 +mr +hi +##net +touch +##ls +##ii +michael +lcd +##05 +##33 +phone +james +step2 +1300 +ios9 +##box +dc +##2 +##ley +samsung +111 +280 +pokemon +css +##ent +##les +いいえ +##1 +s8 +atom +play +bmw +##said +sa +etf +ctrl +♥yoyo♥ +##55 +2025 +##2014 +##66 +adidas +amazon +1958 +##ber +##ner +visa +##77 +##der +1800 +connectivity +##hi +firefox +109 +118 +hr +so +style +mark +pop +ol +skip +1975 +as +##27 +##ir +##61 +190 +mba +##う +##ai +le +##ver +1900 +cafe2017 +lte +super +113 +129 +##ron +amd +like +##☆ +are +##ster +we +##sk +paul +data +international +##ft +longchamp +ssd +good +##ート +##ti +reply +##my +↓↓↓ +apr +star +##ker +source +136 +js +112 +get +force +photo +##one +126 +##2013 +##ow +link +bbs +1972 +goods +##lin +python +119 +##ip +game +##ics +##ません +blue +##● +520 +##45 +page +itunes +##03 +1955 +260 +1968 +gt +gif +618 +##ff +##47 +group +くたさい +about +bar +ganji +##nce +music +lee +not +1977 +1971 +1973 +##per +an +faq +comment +##って +days +##ock +116 +##bs +1974 +1969 +v1 +player +1956 +xbox +sql +fm +f1 +139 +##ah +210 +##lv +##mp +##000 +melody +1957 +##3 +550 +17life +199 +1966 +xml +market +##au +##71 +999 +##04 +what +gl +##95 +##age +tips +##68 +book +##ting +mysql +can +1959 +230 +##ung +wonderland +watch +10℃ +##ction +9000 +mar +mobile +1946 +1962 +article +##db +part +▲top +party +って +1967 +1964 +1948 +##07 +##ore +##op +この +dj +##78 +##38 +010 +main +225 +1965 +##ong +art +320 +ad +134 +020 +##73 +117 +pm2 +japan +228 +##08 +ts +1963 +##ica +der +sm +##36 +2019 +##wa +ct +##7 +##や +##64 +1937 +homemesh +search +##85 +##れは +##tv +##di +macbook +##9 +##くたさい +service +##♥ +type +った +750 +##ier +##si +##75 +##います +##ok +best +##ット +goris +lock +##った +cf +3m +big +##ut +ftp +carol +##vi +10 +1961 +happy +sd +##ac +122 +anti +pe +cnn +iii +1920 +138 +##ラ +1940 +esp +jan +tags +##98 +##51 +august +vol +##86 +154 +##™ +##fs +##れ +##sion +design +ac +##ム +press +jordan +ppp +that +key +check +##6 +##tt +##㎡ +1080p +##lt +power +##42 +1952 +##bc +vivi +##ック +he +133 +121 +jpg +##rry +201 +175 +3500 +1947 +nb +##ted +##rn +しています +1954 +usd +##t00 +master +##ンク +001 +model +##58 +al +##09 +1953 +##34 +ram +goo +ても +##ui +127 +1930 +red +##ary +rpg +item +##pm +##41 +270 +##za +project +##2012 +hot +td +blogabstract +##ger +##62 +650 +##44 +gr2 +##します +##m +black +electronic +nfc +year +asus +また +html5 +cindy +##hd +m3 +132 +esc +##od +booking +##53 +fed +tvb +##81 +##ina +mit +165 +##いる +chan +192 +distribution +next +になる +peter +bios +steam +cm +1941 +にも +pk10 +##ix +##65 +##91 +dec +nasa +##ana +icecat +00z +b1 +will +##46 +li +se +##ji +##み +##ard +oct +##ain +jp +##ze +##bi +cio +##56 +smart +h5 +##39 +##port +curve +vpn +##nm +##dia +utc +##あり +12345678910 +##52 +rmvb +chanel +a4 +miss +##and +##im +media +who +##63 +she +girl +5s +124 +vera +##して +class +vivo +king +##フ +##ei +national +ab +1951 +5cm +888 +145 +ipod +ap +1100 +5mm +211 +ms +2756 +##69 +mp4 +msci +##po +##89 +131 +mg +index +380 +##bit +##out +##zz +##97 +##67 +158 +apec +##8 +photoshop +opec +¥799 +ては +##96 +##tes +##ast +2g +○○ +##ール +¥2899 +##ling +##よ +##ory +1938 +##ical +kitty +content +##43 +step3 +##cn +win8 +155 +vc +1400 +iphone7 +robert +##した +tcl +137 +beauty +##87 +en +dollars +##ys +##oc +step +pay +yy +a1 +##2011 +##lly +##ks +##♪ +1939 +188 +download +1944 +sep +exe +ph +います +school +gb +center +pr +street +##board +uv +##37 +##lan +winrar +##que +##ua +##com +1942 +1936 +480 +gpu +##4 +ettoday +fu +tom +##54 +##ren +##via +149 +##72 +b2b +144 +##79 +##tch +rose +arm +mb +##49 +##ial +##nn +nvidia +step4 +mvp +00㎡ +york +156 +##イ +how +cpi +591 +2765 +gov +kg +joe +##xx +mandy +pa +##ser +copyright +fashion +1935 +don +##け +ecu +##ist +##art +erp +wap +have +##lm +talk +##ek +##ning +##if +ch +##ite +video +1943 +cs +san +iot +look +##84 +##2010 +##ku +october +##ux +trump +##hs +##ide +box +141 +first +##ins +april +##ight +##83 +185 +angel +protected +aa +151 +162 +x1 +m2 +##fe +##× +##ho +size +143 +min +ofo +fun +gomaji +ex +hdmi +food +dns +march +chris +kevin +##のか +##lla +##pp +##ec +ag +ems +6s +720p +##rm +##ham +off +##92 +asp +team +fandom +ed +299 +▌♥ +##ell +info +されています +##82 +sina +4066 +161 +##able +##ctor +330 +399 +315 +dll +rights +ltd +idc +jul +3kg +1927 +142 +ma +surface +##76 +##ク +~~~ +304 +mall +eps +146 +green +##59 +map +space +donald +v2 +sodu +##light +1931 +148 +1700 +まて +310 +reserved +htm +##han +##57 +2d +178 +mod +##ise +##tions +152 +ti +##shi +doc +1933 +icp +055 +wang +##ram +shopping +aug +##pi +##well +now +wam +b2 +からお +##hu +236 +1928 +##gb +266 +f2 +##93 +153 +mix +##ef +##uan +bwl +##plus +##res +core +##ess +tea +5℃ +hktvmall +nhk +##ate +list +##ese +301 +feb +4m +inn +ての +nov +159 +12345 +daniel +##ci +pass +##bet +##nk +coffee +202 +ssl +airbnb +##ute +fbi +woshipm +skype +ea +cg +sp +##fc +##www +yes +edge +alt +007 +##94 +fpga +##ght +##gs +iso9001 +さい +##ile +##wood +##uo +image +lin +icon +american +##em +1932 +set +says +##king +##tive +blogger +##74 +なと +256 +147 +##ox +##zy +##red +##ium +##lf +nokia +claire +##リ +##ding +november +lohas +##500 +##tic +##マ +##cs +##ある +##che +##ire +##gy +##ult +db +january +win +##カ +166 +road +ptt +##ま +##つ +198 +##fa +##mer +anna +pchome +はい +udn +ef +420 +##time +##tte +2030 +##ア +g20 +white +かかります +1929 +308 +garden +eleven +di +##おります +chen +309b +777 +172 +young +cosplay +ちてない +4500 +bat +##123 +##tra +##ては +kindle +npc +steve +etc +##ern +##| +call +xperia +ces +travel +sk +s7 +##ous +1934 +##int +みいたたけます +183 +edu +file +cho +qr +##car +##our +186 +##ant +##d +eric +1914 +rends +##jo +##する +mastercard +##2000 +kb +##min +290 +##ino +vista +##ris +##ud +jack +2400 +##set +169 +pos +1912 +##her +##ou +taipei +しく +205 +beta +##ませんか +232 +##fi +express +255 +body +##ill +aphojoy +user +december +meiki +##ick +tweet +richard +##av +##ᆫ +iphone6 +##dd +ちてすか +views +##mark +321 +pd +##00 +times +##▲ +level +##ash +10g +point +5l +##ome +208 +koreanmall +##ak +george +q2 +206 +wma +tcp +##200 +スタッフ +full +mlb +##lle +##watch +tm +run +179 +911 +smith +business +##und +1919 +color +##tal +222 +171 +##less +moon +4399 +##rl +update +pcb +shop +499 +157 +little +なし +end +##mhz +van +dsp +easy +660 +##house +##key +history +##o +oh +##001 +##hy +##web +oem +let +was +##2009 +##gg +review +##wan +182 +##°c +203 +uc +title +##val +united +233 +2021 +##ons +doi +trivago +overdope +sbs +##ance +##ち +grand +special +573032185 +imf +216 +wx17house +##so +##ーム +audi +##he +london +william +##rp +##ake +science +beach +cfa +amp +ps4 +880 +##800 +##link +##hp +crm +ferragamo +bell +make +##eng +195 +under +zh +photos +2300 +##style +##ント +via +176 +da +##gi +company +i7 +##ray +thomas +370 +ufo +i5 +##max +plc +ben +back +research +8g +173 +mike +##pc +##ッフ +september +189 +##ace +vps +february +167 +pantos +wp +lisa +1921 +★★ +jquery +night +long +offer +##berg +##news +1911 +##いて +ray +fks +wto +せます +over +164 +340 +##all +##rus +1924 +##888 +##works +blogtitle +loftpermalink +##→ +187 +martin +test +ling +km +##め +15000 +fda +v3 +##ja +##ロ +wedding +かある +outlet +family +##ea +をこ +##top +story +##ness +salvatore +##lu +204 +swift +215 +room +している +oracle +##ul +1925 +sam +b2c +week +pi +rock +##のは +##a +##けと +##ean +##300 +##gle +cctv +after +chinese +##back +powered +x2 +##tan +1918 +##nes +##イン +canon +only +181 +##zi +##las +say +##oe +184 +##sd +221 +##bot +##world +##zo +sky +made +top100 +just +1926 +pmi +802 +234 +gap +##vr +177 +les +174 +▲topoct +ball +vogue +vi +ing +ofweek +cos +##list +##ort +▲topmay +##なら +##lon +として +last +##tc +##of +##bus +##gen +real +eva +##コ +a3 +nas +##lie +##ria +##coin +##bt +▲topapr +his +212 +cat +nata +vive +health +⋯⋯ +drive +sir +▲topmar +du +cup +##カー +##ook +##よう +##sy +alex +msg +tour +しました +3ce +##word +193 +ebooks +r8 +block +318 +##より +2200 +nice +pvp +207 +months +1905 +rewards +##ther +1917 +0800 +##xi +##チ +##sc +micro +850 +gg +blogfp +op +1922 +daily +m1 +264 +true +##bb +ml +##tar +##のお +##ky +anthony +196 +253 +##yo +state +218 +##ara +##aa +##rc +##tz +##ston +より +gear +##eo +##ade +ge +see +1923 +##win +##ura +ss +heart +##den +##ita +down +##sm +el +png +2100 +610 +rakuten +whatsapp +bay +dream +add +##use +680 +311 +pad +gucci +mpv +##ode +##fo +island +▲topjun +##▼ +223 +jason +214 +chicago +##❤ +しの +##hone +io +##れる +##ことか +sogo +be2 +##ology +990 +cloud +vcd +##con +2~3 +##ford +##joy +##kb +##こさいます +##rade +but +##ach +docker +##ful +rfid +ul +##ase +hit +ford +##star +580 +##○ +11 +a2 +sdk +reading +edited +##are +cmos +##mc +238 +siri +light +##ella +##ため +bloomberg +##read +pizza +##ison +jimmy +##vm +college +node +journal +ba +18k +##play +245 +##cer +20 +magic +##yu +191 +jump +288 +tt +##ings +asr +##lia +3200 +step5 +network +##cd +mc +いします +1234 +pixstyleme +273 +##600 +2800 +money +★★★★★ +1280 +12 +430 +bl +みの +act +##tus +tokyo +##rial +##life +emba +##ae +saas +tcs +##rk +##wang +summer +##sp +ko +##ving +390 +premium +##その +netflix +##ヒ +uk +mt +##lton +right +frank +two +209 +える +##ple +##cal +021 +##んな +##sen +##ville +hold +nexus +dd +##ius +てお +##mah +##なく +tila +zero +820 +ce +##tin +resort +##ws +charles +old +p10 +5d +report +##360 +##ru +##には +bus +vans +lt +##est +pv +##レ +links +rebecca +##ツ +##dm +azure +##365 +きな +limited +bit +4gb +##mon +1910 +moto +##eam +213 +1913 +var +eos +なとの +226 +blogspot +された +699 +e3 +dos +dm +fc +##ments +##ik +##kw +boy +##bin +##ata +960 +er +##せ +219 +##vin +##tu +##ula +194 +##∥ +station +##ろ +##ature +835 +files +zara +hdr +top10 +nature +950 +magazine +s6 +marriott +##シ +avira +case +##っと +tab +##ran +tony +##home +oculus +im +##ral +jean +saint +cry +307 +rosie +##force +##ini +ice +##bert +のある +##nder +##mber +pet +2600 +##◆ +plurk +▲topdec +##sis +00kg +▲topnov +720 +##ence +tim +##ω +##nc +##ても +##name +log +ips +great +ikea +malaysia +unix +##イト +3600 +##ncy +##nie +12000 +akb48 +##ye +##oid +404 +##chi +##いた +oa +xuehai +##1000 +##orm +##rf +275 +さん +##ware +##リー +980 +ho +##pro +text +##era +560 +bob +227 +##ub +##2008 +8891 +scp +avi +##zen +2022 +mi +wu +museum +qvod +apache +lake +jcb +▲topaug +★★★ +ni +##hr +hill +302 +ne +weibo +490 +ruby +##ーシ +##ヶ +##row +4d +▲topjul +iv +##ish +github +306 +mate +312 +##スト +##lot +##ane +andrew +のハイト +##tina +t1 +rf +ed2k +##vel +##900 +way +final +りの +ns +5a +705 +197 +##メ +sweet +bytes +##ene +▲topjan +231 +##cker +##2007 +##px +100g +topapp +229 +helpapp +rs +low +14k +g4g +care +630 +ldquo +あり +##fork +leave +rm +edition +##gan +##zon +##qq +▲topsep +##google +##ism +gold +224 +explorer +##zer +toyota +category +select +visual +##labels +restaurant +##md +posts +s1 +##ico +もっと +angelababy +123456 +217 +sports +s3 +mbc +1915 +してくたさい +shell +x86 +candy +##new +kbs +face +xl +470 +##here +4a +swissinfo +v8 +▲topfeb +dram +##ual +##vice +3a +##wer +sport +q1 +ios10 +public +int +card +##c +ep +au +rt +##れた +1080 +bill +##mll +kim +30 +460 +wan +##uk +##ミ +x3 +298 +0t +scott +##ming +239 +e5 +##3d +h7n9 +worldcat +brown +##あります +##vo +##led +##580 +##ax +249 +410 +##ert +paris +##~6 +polo +925 +##lr +599 +##ナ +capital +##hing +bank +cv +1g +##chat +##s +##たい +adc +##ule +2m +##e +digital +hotmail +268 +##pad +870 +bbq +quot +##ring +before +wali +##まて +mcu +2k +2b +という +costco +316 +north +333 +switch +##city +##p +philips +##mann +management +panasonic +##cl +##vd +##ping +##rge +alice +##lk +##ましょう +css3 +##ney +vision +alpha +##ular +##400 +##tter +lz +にお +##ありません +mode +gre +1916 +pci +##tm +237 +1~2 +##yan +##そ +について +##let +##キ +work +war +coach +ah +mary +##ᅵ +huang +##pt +a8 +pt +follow +##berry +1895 +##ew +a5 +ghost +##ション +##wn +##og +south +##code +girls +##rid +action +villa +git +r11 +table +games +##cket +error +##anonymoussaid +##ag +here +##ame +##gc +qa +##■ +##lis +gmp +##gin +vmalife +##cher +yu +wedding +##tis +demo +dragon +530 +soho +social +bye +##rant +river +orz +acer +325 +##↑ +##ース +##ats +261 +del +##ven +440 +ups +##ように +##ター +305 +value +macd +yougou +##dn +661 +##ano +ll +##urt +##rent +continue +script +##wen +##ect +paper +263 +319 +shift +##chel +##フト +##cat +258 +x5 +fox +243 +##さん +car +aaa +##blog +loading +##yn +##tp +kuso +799 +si +sns +イカせるテンマ +ヒンクテンマ3 +rmb +vdc +forest +central +prime +help +ultra +##rmb +##ような +241 +square +688 +##しい +のないフロクに +##field +##reen +##ors +##ju +c1 +start +510 +##air +##map +cdn +##wo +cba +stephen +m8 +100km +##get +opera +##base +##ood +vsa +com™ +##aw +##ail +251 +なのて +count +t2 +##ᅡ +##een +2700 +hop +##gp +vsc +tree +##eg +##ose +816 +285 +##ories +##shop +alphago +v4 +1909 +simon +##ᆼ +fluke62max +zip +スホンサー +##sta +louis +cr +bas +##~10 +bc +##yer +hadoop +##ube +##wi +1906 +0755 +hola +##low +place +centre +5v +d3 +##fer +252 +##750 +##media +281 +540 +0l +exchange +262 +series +##ハー +##san +eb +##bank +##k +q3 +##nge +##mail +take +##lp +259 +1888 +client +east +cache +event +vincent +##ールを +きを +##nse +sui +855 +adchoice +##и +##stry +##なたの +246 +##zone +ga +apps +sea +##ab +248 +cisco +##タ +##rner +kymco +##care +dha +##pu +##yi +minkoff +royal +p1 +への +annie +269 +collection +kpi +playstation +257 +になります +866 +bh +##bar +queen +505 +radio +1904 +andy +armani +##xy +manager +iherb +##ery +##share +spring +raid +johnson +1908 +##ob +volvo +hall +##ball +v6 +our +taylor +##hk +bi +242 +##cp +kate +bo +water +technology +##rie +サイトは +277 +##ona +##sl +hpv +303 +gtx +hip +rdquo +jayz +stone +##lex +##rum +namespace +##やり +620 +##ale +##atic +des +##erson +##ql +##ves +##type +enter +##この +##てきます +d2 +##168 +##mix +##bian +との +a9 +jj +ky +##lc +access +movie +##hc +リストに +tower +##ration +##mit +ます +##nch +ua +tel +prefix +##o2 +1907 +##point +1901 +ott +~10 +##http +##ury +baidu +##ink +member +##logy +bigbang +nownews +##js +##shot +##tb +##こと +247 +eba +##tics +##lus +ける +v5 +spark +##ama +there +##ions +god +##lls +##down +hiv +##ress +burberry +day2 +##kv +◆◆ +jeff +related +film +edit +joseph +283 +##ark +cx +32gb +order +g9 +30000 +##ans +##tty +s5 +##bee +かあります +thread +xr +buy +sh +005 +land +spotify +mx +##ari +276 +##verse +×email +sf +why +##ことて +244 +7headlines +nego +sunny +dom +exo +401 +666 +positioning +fit +rgb +##tton +278 +kiss +alexa +adam +lp +みリストを +##g +mp +##ties +##llow +amy +##du +np +002 +institute +271 +##rth +##lar +2345 +590 +##des +sidebar +15 +imax +site +##cky +##kit +##ime +##009 +season +323 +##fun +##ンター +##ひ +gogoro +a7 +pu +lily +fire +twd600 +##ッセーシを +いて +##vis +30ml +##cture +##をお +information +##オ +close +friday +##くれる +yi +nick +てすか +##tta +##tel +6500 +##lock +cbd +economy +254 +かお +267 +tinker +double +375 +8gb +voice +##app +oops +channel +today +985 +##right +raw +xyz +##+ +jim +edm +##cent +7500 +supreme +814 +ds +##its +##asia +dropbox +##てすか +##tti +books +272 +100ml +##tle +##ller +##ken +##more +##boy +sex +309 +##dom +t3 +##ider +##なります +##unch +1903 +810 +feel +5500 +##かった +##put +により +s2 +mo +##gh +men +ka +amoled +div +##tr +##n1 +port +howard +##tags +ken +dnf +##nus +adsense +##а +ide +##へ +buff +thunder +##town +##ique +has +##body +auto +pin +##erry +tee +てした +295 +number +##the +##013 +object +psp +cool +udnbkk +16gb +##mic +miui +##tro +most +r2 +##alk +##nity +1880 +±0 +##いました +428 +s4 +law +version +##oa +n1 +sgs +docomo +##tf +##ack +henry +fc2 +##ded +##sco +##014 +##rite +286 +0mm +linkedin +##ada +##now +wii +##ndy +ucbug +##◎ +sputniknews +legalminer +##ika +##xp +2gb +##bu +q10 +oo +b6 +come +##rman +cheese +ming +maker +##gm +nikon +##fig +ppi +kelly +##ります +jchere +てきます +ted +md +003 +fgo +tech +##tto +dan +soc +##gl +##len +hair +earth +640 +521 +img +##pper +##a1 +##てきる +##ロク +acca +##ition +##ference +suite +##ig +outlook +##mond +##cation +398 +##pr +279 +101vip +358 +##999 +282 +64gb +3800 +345 +airport +##over +284 +##おり +jones +##ith +lab +##su +##いるのて +co2 +town +piece +##llo +no1 +vmware +24h +##qi +focus +reader +##admin +##ora +tb +false +##log +1898 +know +lan +838 +##ces +f4 +##ume +motel +stop +##oper +na +flickr +netcomponents +##af +##─ +pose +williams +local +##ound +##cg +##site +##iko +いお +274 +5m +gsm +con +##ath +1902 +friends +##hip +cell +317 +##rey +780 +cream +##cks +012 +##dp +facebooktwitterpinterestgoogle +sso +324 +shtml +song +swiss +##mw +##キンク +lumia +xdd +string +tiffany +522 +marc +られた +insee +russell +sc +dell +##ations +ok +camera +289 +##vs +##flow +##late +classic +287 +##nter +stay +g1 +mtv +512 +##ever +##lab +##nger +qe +sata +ryan +d1 +50ml +cms +##cing +su +292 +3300 +editor +296 +##nap +security +sunday +association +##ens +##700 +##bra +acg +##かり +sofascore +とは +mkv +##ign +jonathan +gary +build +labels +##oto +tesla +moba +qi +gohappy +general +ajax +1024 +##かる +サイト +society +##test +##urs +wps +fedora +##ich +mozilla +328 +##480 +##dr +usa +urn +##lina +##r +grace +##die +##try +##ader +1250 +##なり +elle +570 +##chen +##ᆯ +price +##ten +uhz +##ough +eq +##hen +states +push +session +balance +wow +506 +##cus +##py +when +##ward +##ep +34e +wong +library +prada +##サイト +##cle +running +##ree +313 +ck +date +q4 +##ctive +##ool +##> +mk +##ira +##163 +388 +die +secret +rq +dota +buffet +は1ヶ +e6 +##ez +pan +368 +ha +##card +##cha +2a +##さ +alan +day3 +eye +f3 +##end +france +keep +adi +rna +tvbs +##ala +solo +nova +##え +##tail +##ょう +support +##ries +##なる +##ved +base +copy +iis +fps +##ways +hero +hgih +profile +fish +mu +ssh +entertainment +chang +##wd +click +cake +##ond +pre +##tom +kic +pixel +##ov +##fl +product +6a +##pd +dear +##gate +es +yumi +audio +##² +##sky +echo +bin +where +##ture +329 +##ape +find +sap +isis +##なと +nand +##101 +##load +##ream +band +a6 +525 +never +##post +festival +50cm +##we +555 +guide +314 +zenfone +##ike +335 +gd +forum +jessica +strong +alexander +##ould +software +allen +##ious +program +360° +else +lohasthree +##gar +することかてきます +please +##れます +rc +##ggle +##ric +bim +50000 +##own +eclipse +355 +brian +3ds +##side +061 +361 +##other +##ける +##tech +##ator +485 +engine +##ged +##t +plaza +##fit +cia +ngo +westbrook +shi +tbs +50mm +##みませんか +sci +291 +reuters +##ily +contextlink +##hn +af +##cil +bridge +very +##cel +1890 +cambridge +##ize +15g +##aid +##data +790 +frm +##head +award +butler +##sun +meta +##mar +america +ps3 +puma +pmid +##すか +lc +670 +kitchen +##lic +オーフン5 +きなしソフトサーヒス +そして +day1 +future +★★★★ +##text +##page +##rris +pm1 +##ket +fans +##っています +1001 +christian +bot +kids +trackback +##hai +c3 +display +##hl +n2 +1896 +idea +さんも +##sent +airmail +##ug +##men +pwm +けます +028 +##lution +369 +852 +awards +schemas +354 +asics +wikipedia +font +##tional +##vy +c2 +293 +##れている +##dget +##ein +っている +contact +pepper +スキル +339 +##~5 +294 +##uel +##ument +730 +##hang +みてす +q5 +##sue +rain +##ndi +wei +swatch +##cept +わせ +331 +popular +##ste +##tag +p2 +501 +trc +1899 +##west +##live +justin +honda +ping +messenger +##rap +v9 +543 +##とは +unity +appqq +はすへて +025 +leo +##tone +##テ +##ass +uniqlo +##010 +502 +her +jane +memory +moneydj +##tical +human +12306 +していると +##m2 +coc +miacare +##mn +tmt +##core +vim +kk +##may +fan +target +use +too +338 +435 +2050 +867 +737 +fast +##2c +services +##ope +omega +energy +##わ +pinkoi +1a +##なから +##rain +jackson +##ement +##シャンルの +374 +366 +そんな +p9 +rd +##ᆨ +1111 +##tier +##vic +zone +##│ +385 +690 +dl +isofix +cpa +m4 +322 +kimi +めて +davis +##lay +lulu +##uck +050 +weeks +qs +##hop +920 +##n +ae +##ear +~5 +eia +405 +##fly +korea +jpeg +boost +##ship +small +##リア +1860 +eur +297 +425 +valley +##iel +simple +##ude +rn +k2 +##ena +されます +non +patrick +しているから +##ナー +feed +5757 +30g +process +well +qqmei +##thing +they +aws +lu +pink +##ters +##kin +または +board +##vertisement +wine +##ien +unicode +##dge +r1 +359 +##tant +いを +##twitter +##3c +cool1 +される +##れて +##l +isp +##012 +standard +45㎡2 +402 +##150 +matt +##fu +326 +##iner +googlemsn +pixnetfacebookyahoo +##ラン +x7 +886 +##uce +メーカー +sao +##ev +##きました +##file +9678 +403 +xddd +shirt +6l +##rio +##hat +3mm +givenchy +ya +bang +##lio +monday +crystal +ロクイン +##abc +336 +head +890 +ubuntuforumwikilinuxpastechat +##vc +##~20 +##rity +cnc +7866 +ipv6 +null +1897 +##ost +yang +imsean +tiger +##fet +##ンス +352 +##= +dji +327 +ji +maria +##come +##んて +foundation +3100 +##beth +##なった +1m +601 +active +##aft +##don +3p +sr +349 +emma +##khz +living +415 +353 +1889 +341 +709 +457 +sas +x6 +##face +pptv +x4 +##mate +han +sophie +##jing +337 +fifa +##mand +other +sale +inwedding +##gn +てきちゃいます +##mmy +##pmlast +bad +nana +nbc +してみてくたさいね +なとはお +##wu +##かあります +##あ +note7 +single +##340 +せからこ +してくたさい♪この +しにはとんとんワークケートを +するとあなたにもっとマッチした +ならワークケートへ +もみつかっちゃうかも +ワークケートの +##bel +window +##dio +##ht +union +age +382 +14 +##ivity +##y +コメント +domain +neo +##isa +##lter +5k +f5 +steven +##cts +powerpoint +tft +self +g2 +ft +##テル +zol +##act +mwc +381 +343 +もう +nbapop +408 +てある +eds +ace +##room +previous +author +tomtom +il +##ets +hu +financial +☆☆☆ +っています +bp +5t +chi +1gb +##hg +fairmont +cross +008 +gay +h2 +function +##けて +356 +also +1b +625 +##ータ +##raph +1894 +3~5 +##ils +i3 +334 +avenue +##host +による +##bon +##tsu +message +navigation +50g +fintech +h6 +##ことを +8cm +##ject +##vas +##firm +credit +##wf +xxxx +form +##nor +##space +huawei +plan +json +sbl +##dc +machine +921 +392 +wish +##120 +##sol +windows7 +edward +##ために +development +washington +##nsis +lo +818 +##sio +##ym +##bor +planet +##~8 +##wt +ieee +gpa +##めて +camp +ann +gm +##tw +##oka +connect +##rss +##work +##atus +wall +chicken +soul +2mm +##times +fa +##ather +##cord +009 +##eep +hitachi +gui +harry +##pan +e1 +disney +##press +##ーション +wind +386 +frigidaire +##tl +liu +hsu +332 +basic +von +ev +いた +てきる +スホンサーサイト +learning +##ull +expedia +archives +change +##wei +santa +cut +ins +6gb +turbo +brand +cf1 +508 +004 +return +747 +##rip +h1 +##nis +##をこ +128gb +##にお +3t +application +しており +emc +rx +##oon +384 +quick +412 +15058 +wilson +wing +chapter +##bug +beyond +##cms +##dar +##oh +zoom +e2 +trip +sb +##nba +rcep +342 +aspx +ci +080 +gc +gnu +める +##count +advanced +dance +dv +##url +##ging +367 +8591 +am09 +shadow +battle +346 +##i +##cia +##という +emily +##のてす +##tation +host +ff +techorz +sars +##mini +##mporary +##ering +nc +4200 +798 +##next +cma +##mbps +##gas +##ift +##dot +##ィ +455 +##~17 +amana +##りの +426 +##ros +ir +00㎡1 +##eet +##ible +##↓ +710 +ˋ▽ˊ +##aka +dcs +iq +##v +l1 +##lor +maggie +##011 +##iu +588 +##~1 +830 +##gt +1tb +articles +create +##burg +##iki +database +fantasy +##rex +##cam +dlc +dean +##you +hard +path +gaming +victoria +maps +cb +##lee +##itor +overchicstoretvhome +systems +##xt +416 +p3 +sarah +760 +##nan +407 +486 +x9 +install +second +626 +##ann +##ph +##rcle +##nic +860 +##nar +ec +##とう +768 +metro +chocolate +##rian +~4 +##table +##しています +skin +##sn +395 +mountain +##0mm +inparadise +6m +7x24 +ib +4800 +##jia +eeworld +creative +g5 +g3 +357 +parker +ecfa +village +からの +18000 +sylvia +サーヒス +hbl +##ques +##onsored +##x2 +##きます +##v4 +##tein +ie6 +383 +##stack +389 +ver +##ads +##baby +sound +bbe +##110 +##lone +##uid +ads +022 +gundam +351 +thinkpad +006 +scrum +match +##ave +mems +##470 +##oy +##なりました +##talk +glass +lamigo +span +##eme +job +##a5 +jay +wade +kde +498 +##lace +ocean +tvg +##covery +##r3 +##ners +##rea +junior +think +##aine +cover +##ision +##sia +↓↓ +##bow +msi +413 +458 +406 +##love +711 +801 +soft +z2 +##pl +456 +1840 +mobil +mind +##uy +427 +nginx +##oi +めた +##rr +6221 +##mple +##sson +##ーシてす +371 +##nts +91tv +comhd +crv3000 +##uard +1868 +397 +deep +lost +field +gallery +##bia +rate +spf +redis +traction +930 +icloud +011 +なら +fe +jose +372 +##tory +into +sohu +fx +899 +379 +kicstart2 +##hia +すく +##~3 +##sit +ra +24 +##walk +##xure +500g +##pact +pacific +xa +natural +carlo +##250 +##walker +1850 +##can +cto +gigi +516 +##サー +pen +##hoo +ob +matlab +##b +##yy +13913459 +##iti +mango +##bbs +sense +c5 +oxford +##ニア +walker +jennifer +##ola +course +##bre +701 +##pus +##rder +lucky +075 +##ぁ +ivy +なお +##nia +sotheby +side +##ugh +joy +##orage +##ush +##bat +##dt +364 +r9 +##2d +##gio +511 +country +wear +##lax +##~7 +##moon +393 +seven +study +411 +348 +lonzo +8k +##ェ +evolution +##イフ +##kk +gs +kd +##レス +arduino +344 +b12 +##lux +arpg +##rdon +cook +##x5 +dark +five +##als +##ida +とても +sign +362 +##ちの +something +20mm +##nda +387 +##posted +fresh +tf +1870 +422 +cam +##mine +##skip +##form +##ssion +education +394 +##tee +dyson +stage +##jie +want +##night +epson +pack +あります +##ppy +テリヘル +##█ +wd +##eh +##rence +left +##lvin +golden +mhz +discovery +##trix +##n2 +loft +##uch +##dra +##sse +speed +~1 +1mdb +sorry +welcome +##urn +wave +gaga +##lmer +teddy +##160 +トラックハック +せよ +611 +##f2016 +378 +rp +##sha +rar +##あなたに +##きた +840 +holiday +##ュー +373 +074 +##vg +##nos +##rail +gartner +gi +6p +##dium +kit +488 +b3 +eco +##ろう +20g +sean +##stone +autocad +nu +##np +f16 +write +029 +m5 +##ias +images +atp +##dk +fsm +504 +1350 +ve +52kb +##xxx +##のに +##cake +414 +unit +lim +ru +1v +##ification +published +angela +16g +analytics +ak +##q +##nel +gmt +##icon +again +##₂ +##bby +ios11 +445 +かこさいます +waze +いてす +##ハ +9985 +##ust +##ティー +framework +##007 +iptv +delete +52sykb +cl +wwdc +027 +30cm +##fw +##ての +1389 +##xon +brandt +##ses +##dragon +tc +vetements +anne +monte +modern +official +##へて +##ere +##nne +##oud +もちろん +50 +etnews +##a2 +##graphy +421 +863 +##ちゃん +444 +##rtex +##てお +l2 +##gma +mount +ccd +たと +archive +morning +tan +ddos +e7 +##ホ +day4 +##ウ +gis +453 +its +495 +factory +bruce +pg +##ito +ってくたさい +guest +cdma +##lling +536 +n3 +しかし +3~4 +mega +eyes +ro +13 +women +dac +church +##jun +singapore +##facebook +6991 +starbucks +##tos +##stin +##shine +zen +##mu +tina +20℃ +1893 +##たけて +503 +465 +request +##gence +qt +##っ +1886 +347 +363 +q7 +##zzi +diary +##tore +409 +##ead +468 +cst +##osa +canada +agent +va +##jiang +##ちは +##ーク +##lam +sg +##nix +##sday +##よって +g6 +##master +bing +##zl +charlie +16 +8mm +nb40 +##ーン +thai +##ルフ +ln284ct +##itz +##2f +bonnie +##food +##lent +originals +##stro +##lts +418 +∟∣ +##bscribe +children +ntd +yesstyle +##かも +hmv +##tment +d5 +2cm +arts +sms +##pn +##я +##いい +topios9 +539 +lifestyle +virtual +##ague +xz +##deo +muji +024 +unt +##nnis +##ᅩ +faq1 +1884 +396 +##ette +fly +64㎡ +はしめまして +441 +curry +##pop +のこ +release +##← +##◆◆ +##cast +073 +ありな +500ml +##ews +5c +##stle +ios7 +##ima +787 +dog +lenovo +##r4 +roger +013 +cbs +vornado +100m +417 +##desk +##クok +##ald +1867 +9595 +2900 +##van +oil +##x +some +break +common +##jy +##lines +g7 +twice +419 +ella +nano +belle +にこ +##mes +##self +##note +jb +##ことかてきます +benz +##との +##ova +451 +save +##wing +##ますのて +kai +りは +##hua +##rect +rainer +##unge +448 +##0m +adsl +##かな +guestname +##uma +##kins +##zu +tokichoi +##price +county +##med +##mus +rmk +391 +address +vm +えて +openload +##group +##hin +##iginal +amg +urban +##oz +jobs +emi +##public +beautiful +##sch +album +##dden +##bell +jerry +works +hostel +miller +##drive +##rmin +##10 +376 +boot +828 +##370 +##fx +##cm~ +1885 +##nome +##ctionary +##oman +##lish +##cr +##hm +433 +##how +432 +francis +xi +c919 +b5 +evernote +##uc +vga +##3000 +coupe +##urg +##cca +##uality +019 +6g +れる +multi +##また +##ett +em +hey +##ani +##tax +##rma +inside +than +740 +leonnhurt +##jin +ict +れた +bird +notes +200mm +くの +##dical +##lli +result +442 +iu +ee +438 +smap +gopro +##last +yin +pure +998 +32g +けた +5kg +##dan +##rame +mama +##oot +bean +marketing +##hur +2l +bella +sync +xuite +##ground +515 +discuz +##getrelax +##ince +##bay +##5s +cj +##イス +gmat +apt +##pass +jing +##rix +c4 +rich +##とても +niusnews +##ello +bag +770 +##eting +##mobile +18 +culture +015 +##のてすか +377 +1020 +area +##ience +616 +details +gp +universal +silver +dit +はお +private +ddd +u11 +kanshu +##ified +fung +##nny +dx +##520 +tai +475 +023 +##fr +##lean +3s +##pin +429 +##rin +25000 +ly +rick +##bility +usb3 +banner +##baru +##gion +metal +dt +vdf +1871 +karl +qualcomm +bear +1010 +oldid +ian +jo +##tors +population +##ernel +1882 +mmorpg +##mv +##bike +603 +##© +ww +friend +##ager +exhibition +##del +##pods +fpx +structure +##free +##tings +kl +##rley +##copyright +##mma +california +3400 +orange +yoga +4l +canmake +honey +##anda +##コメント +595 +nikkie +##ルハイト +dhl +publishing +##mall +##gnet +20cm +513 +##クセス +##┅ +e88 +970 +##dog +fishbase +##! +##" +### +##$ +##% +##& +##' +##( +##) +##* +##+ +##, +##- +##. +##/ +##: +##; +##< +##= +##> +##? +##@ +##[ +##\ +##] +##^ +##_ +##{ +##| +##} +##~ +##£ +##¤ +##¥ +##§ +##« +##± +##³ +##µ +##· +##¹ +##º +##» +##¼ +##ß +##æ +##÷ +##ø +##đ +##ŋ +##ɔ +##ə +##ɡ +##ʰ +##ˇ +##ˈ +##ˊ +##ˋ +##ˍ +##ː +##˙ +##˚ +##ˢ +##α +##β +##γ +##δ +##ε +##η +##θ +##ι +##κ +##λ +##μ +##ν +##ο +##π +##ρ +##ς +##σ +##τ +##υ +##φ +##χ +##ψ +##б +##в +##г +##д +##е +##ж +##з +##к +##л +##м +##н +##о +##п +##р +##с +##т +##у +##ф +##х +##ц +##ч +##ш +##ы +##ь +##і +##ا +##ب +##ة +##ت +##د +##ر +##س +##ع +##ل +##م +##ن +##ه +##و +##ي +##۩ +##ก +##ง +##น +##ม +##ย +##ร +##อ +##า +##เ +##๑ +##་ +##ღ +##ᄀ +##ᄁ +##ᄂ +##ᄃ +##ᄅ +##ᄆ +##ᄇ +##ᄈ +##ᄉ +##ᄋ +##ᄌ +##ᄎ +##ᄏ +##ᄐ +##ᄑ +##ᄒ +##ᅢ +##ᅣ +##ᅥ +##ᅦ +##ᅧ +##ᅨ +##ᅪ +##ᅬ +##ᅭ +##ᅮ +##ᅯ +##ᅲ +##ᅳ +##ᅴ +##ᆷ +##ᆸ +##ᆺ +##ᆻ +##ᗜ +##ᵃ +##ᵉ +##ᵍ +##ᵏ +##ᵐ +##ᵒ +##ᵘ +##‖ +##„ +##† +##• +##‥ +##‧ +##
 +##‰ +##′ +##″ +##‹ +##› +##※ +##‿ +##⁄ +##ⁱ +##⁺ +##ⁿ +##₁ +##₃ +##₄ +##€ +##№ +##ⅰ +##ⅱ +##ⅲ +##ⅳ +##ⅴ +##↔ +##↗ +##↘ +##⇒ +##∀ +##− +##∕ +##∙ +##√ +##∞ +##∟ +##∠ +##∣ +##∩ +##∮ +##∶ +##∼ +##∽ +##≈ +##≒ +##≡ +##≤ +##≥ +##≦ +##≧ +##≪ +##≫ +##⊙ +##⋅ +##⋈ +##⋯ +##⌒ +##① +##② +##③ +##④ +##⑤ +##⑥ +##⑦ +##⑧ +##⑨ +##⑩ +##⑴ +##⑵ +##⑶ +##⑷ +##⑸ +##⒈ +##⒉ +##⒊ +##⒋ +##ⓒ +##ⓔ +##ⓘ +##━ +##┃ +##┆ +##┊ +##┌ +##└ +##├ +##┣ +##═ +##║ +##╚ +##╞ +##╠ +##╭ +##╮ +##╯ +##╰ +##╱ +##╳ +##▂ +##▃ +##▅ +##▇ +##▉ +##▋ +##▌ +##▍ +##▎ +##□ +##▪ +##▫ +##▬ +##△ +##▶ +##► +##▽ +##◇ +##◕ +##◠ +##◢ +##◤ +##☀ +##☕ +##☞ +##☺ +##☼ +##♀ +##♂ +##♠ +##♡ +##♣ +##♦ +##♫ +##♬ +##✈ +##✔ +##✕ +##✖ +##✦ +##✨ +##✪ +##✰ +##✿ +##❀ +##➜ +##➤ +##⦿ +##、 +##。 +##〃 +##々 +##〇 +##〈 +##〉 +##《 +##》 +##「 +##」 +##『 +##』 +##【 +##】 +##〓 +##〔 +##〕 +##〖 +##〗 +##〜 +##〝 +##〞 +##ぃ +##ぇ +##ぬ +##ふ +##ほ +##む +##ゃ +##ゅ +##ゆ +##ょ +##゜ +##ゝ +##ァ +##ゥ +##エ +##ォ +##ケ +##サ +##セ +##ソ +##ッ +##ニ +##ヌ +##ネ +##ノ +##ヘ +##モ +##ャ +##ヤ +##ュ +##ユ +##ョ +##ヨ +##ワ +##ヲ +##・ +##ヽ +##ㄅ +##ㄆ +##ㄇ +##ㄉ +##ㄋ +##ㄌ +##ㄍ +##ㄎ +##ㄏ +##ㄒ +##ㄚ +##ㄛ +##ㄞ +##ㄟ +##ㄢ +##ㄤ +##ㄥ +##ㄧ +##ㄨ +##ㆍ +##㈦ +##㊣ +##㗎 +##一 +##丁 +##七 +##万 +##丈 +##三 +##上 +##下 +##不 +##与 +##丐 +##丑 +##专 +##且 +##丕 +##世 +##丘 +##丙 +##业 +##丛 +##东 +##丝 +##丞 +##丟 +##両 +##丢 +##两 +##严 +##並 +##丧 +##丨 +##个 +##丫 +##中 +##丰 +##串 +##临 +##丶 +##丸 +##丹 +##为 +##主 +##丼 +##丽 +##举 +##丿 +##乂 +##乃 +##久 +##么 +##义 +##之 +##乌 +##乍 +##乎 +##乏 +##乐 +##乒 +##乓 +##乔 +##乖 +##乗 +##乘 +##乙 +##乜 +##九 +##乞 +##也 +##习 +##乡 +##书 +##乩 +##买 +##乱 +##乳 +##乾 +##亀 +##亂 +##了 +##予 +##争 +##事 +##二 +##于 +##亏 +##云 +##互 +##五 +##井 +##亘 +##亙 +##亚 +##些 +##亜 +##亞 +##亟 +##亡 +##亢 +##交 +##亥 +##亦 +##产 +##亨 +##亩 +##享 +##京 +##亭 +##亮 +##亲 +##亳 +##亵 +##人 +##亿 +##什 +##仁 +##仃 +##仄 +##仅 +##仆 +##仇 +##今 +##介 +##仍 +##从 +##仏 +##仑 +##仓 +##仔 +##仕 +##他 +##仗 +##付 +##仙 +##仝 +##仞 +##仟 +##代 +##令 +##以 +##仨 +##仪 +##们 +##仮 +##仰 +##仲 +##件 +##价 +##任 +##份 +##仿 +##企 +##伉 +##伊 +##伍 +##伎 +##伏 +##伐 +##休 +##伕 +##众 +##优 +##伙 +##会 +##伝 +##伞 +##伟 +##传 +##伢 +##伤 +##伦 +##伪 +##伫 +##伯 +##估 +##伴 +##伶 +##伸 +##伺 +##似 +##伽 +##佃 +##但 +##佇 +##佈 +##位 +##低 +##住 +##佐 +##佑 +##体 +##佔 +##何 +##佗 +##佘 +##余 +##佚 +##佛 +##作 +##佝 +##佞 +##佟 +##你 +##佢 +##佣 +##佤 +##佥 +##佩 +##佬 +##佯 +##佰 +##佳 +##併 +##佶 +##佻 +##佼 +##使 +##侃 +##侄 +##來 +##侈 +##例 +##侍 +##侏 +##侑 +##侖 +##侗 +##供 +##依 +##侠 +##価 +##侣 +##侥 +##侦 +##侧 +##侨 +##侬 +##侮 +##侯 +##侵 +##侶 +##侷 +##便 +##係 +##促 +##俄 +##俊 +##俎 +##俏 +##俐 +##俑 +##俗 +##俘 +##俚 +##保 +##俞 +##俟 +##俠 +##信 +##俨 +##俩 +##俪 +##俬 +##俭 +##修 +##俯 +##俱 +##俳 +##俸 +##俺 +##俾 +##倆 +##倉 +##個 +##倌 +##倍 +##倏 +##們 +##倒 +##倔 +##倖 +##倘 +##候 +##倚 +##倜 +##借 +##倡 +##値 +##倦 +##倩 +##倪 +##倫 +##倬 +##倭 +##倶 +##债 +##值 +##倾 +##偃 +##假 +##偈 +##偉 +##偌 +##偎 +##偏 +##偕 +##做 +##停 +##健 +##側 +##偵 +##偶 +##偷 +##偻 +##偽 +##偿 +##傀 +##傅 +##傍 +##傑 +##傘 +##備 +##傚 +##傢 +##傣 +##傥 +##储 +##傩 +##催 +##傭 +##傲 +##傳 +##債 +##傷 +##傻 +##傾 +##僅 +##働 +##像 +##僑 +##僕 +##僖 +##僚 +##僥 +##僧 +##僭 +##僮 +##僱 +##僵 +##價 +##僻 +##儀 +##儂 +##億 +##儆 +##儉 +##儋 +##儒 +##儕 +##儘 +##償 +##儡 +##優 +##儲 +##儷 +##儼 +##儿 +##兀 +##允 +##元 +##兄 +##充 +##兆 +##兇 +##先 +##光 +##克 +##兌 +##免 +##児 +##兑 +##兒 +##兔 +##兖 +##党 +##兜 +##兢 +##入 +##內 +##全 +##兩 +##八 +##公 +##六 +##兮 +##兰 +##共 +##兲 +##关 +##兴 +##兵 +##其 +##具 +##典 +##兹 +##养 +##兼 +##兽 +##冀 +##内 +##円 +##冇 +##冈 +##冉 +##冊 +##册 +##再 +##冏 +##冒 +##冕 +##冗 +##写 +##军 +##农 +##冠 +##冢 +##冤 +##冥 +##冨 +##冪 +##冬 +##冯 +##冰 +##冲 +##决 +##况 +##冶 +##冷 +##冻 +##冼 +##冽 +##冾 +##净 +##凄 +##准 +##凇 +##凈 +##凉 +##凋 +##凌 +##凍 +##减 +##凑 +##凛 +##凜 +##凝 +##几 +##凡 +##凤 +##処 +##凪 +##凭 +##凯 +##凰 +##凱 +##凳 +##凶 +##凸 +##凹 +##出 +##击 +##函 +##凿 +##刀 +##刁 +##刃 +##分 +##切 +##刈 +##刊 +##刍 +##刎 +##刑 +##划 +##列 +##刘 +##则 +##刚 +##创 +##初 +##删 +##判 +##別 +##刨 +##利 +##刪 +##别 +##刮 +##到 +##制 +##刷 +##券 +##刹 +##刺 +##刻 +##刽 +##剁 +##剂 +##剃 +##則 +##剉 +##削 +##剋 +##剌 +##前 +##剎 +##剐 +##剑 +##剔 +##剖 +##剛 +##剜 +##剝 +##剣 +##剤 +##剥 +##剧 +##剩 +##剪 +##副 +##割 +##創 +##剷 +##剽 +##剿 +##劃 +##劇 +##劈 +##劉 +##劊 +##劍 +##劏 +##劑 +##力 +##劝 +##办 +##功 +##加 +##务 +##劣 +##动 +##助 +##努 +##劫 +##劭 +##励 +##劲 +##劳 +##労 +##劵 +##効 +##劾 +##势 +##勁 +##勃 +##勇 +##勉 +##勋 +##勐 +##勒 +##動 +##勖 +##勘 +##務 +##勛 +##勝 +##勞 +##募 +##勢 +##勤 +##勧 +##勳 +##勵 +##勸 +##勺 +##勻 +##勾 +##勿 +##匀 +##包 +##匆 +##匈 +##匍 +##匐 +##匕 +##化 +##北 +##匙 +##匝 +##匠 +##匡 +##匣 +##匪 +##匮 +##匯 +##匱 +##匹 +##区 +##医 +##匾 +##匿 +##區 +##十 +##千 +##卅 +##升 +##午 +##卉 +##半 +##卍 +##华 +##协 +##卑 +##卒 +##卓 +##協 +##单 +##卖 +##南 +##単 +##博 +##卜 +##卞 +##卟 +##占 +##卡 +##卢 +##卤 +##卦 +##卧 +##卫 +##卮 +##卯 +##印 +##危 +##即 +##却 +##卵 +##卷 +##卸 +##卻 +##卿 +##厂 +##厄 +##厅 +##历 +##厉 +##压 +##厌 +##厕 +##厘 +##厚 +##厝 +##原 +##厢 +##厥 +##厦 +##厨 +##厩 +##厭 +##厮 +##厲 +##厳 +##去 +##县 +##叁 +##参 +##參 +##又 +##叉 +##及 +##友 +##双 +##反 +##収 +##发 +##叔 +##取 +##受 +##变 +##叙 +##叛 +##叟 +##叠 +##叡 +##叢 +##口 +##古 +##句 +##另 +##叨 +##叩 +##只 +##叫 +##召 +##叭 +##叮 +##可 +##台 +##叱 +##史 +##右 +##叵 +##叶 +##号 +##司 +##叹 +##叻 +##叼 +##叽 +##吁 +##吃 +##各 +##吆 +##合 +##吉 +##吊 +##吋 +##同 +##名 +##后 +##吏 +##吐 +##向 +##吒 +##吓 +##吕 +##吖 +##吗 +##君 +##吝 +##吞 +##吟 +##吠 +##吡 +##否 +##吧 +##吨 +##吩 +##含 +##听 +##吭 +##吮 +##启 +##吱 +##吳 +##吴 +##吵 +##吶 +##吸 +##吹 +##吻 +##吼 +##吽 +##吾 +##呀 +##呂 +##呃 +##呆 +##呈 +##告 +##呋 +##呎 +##呐 +##呓 +##呕 +##呗 +##员 +##呛 +##呜 +##呢 +##呤 +##呦 +##周 +##呱 +##呲 +##味 +##呵 +##呷 +##呸 +##呻 +##呼 +##命 +##咀 +##咁 +##咂 +##咄 +##咆 +##咋 +##和 +##咎 +##咏 +##咐 +##咒 +##咔 +##咕 +##咖 +##咗 +##咘 +##咙 +##咚 +##咛 +##咣 +##咤 +##咦 +##咧 +##咨 +##咩 +##咪 +##咫 +##咬 +##咭 +##咯 +##咱 +##咲 +##咳 +##咸 +##咻 +##咽 +##咿 +##哀 +##品 +##哂 +##哄 +##哆 +##哇 +##哈 +##哉 +##哋 +##哌 +##响 +##哎 +##哏 +##哐 +##哑 +##哒 +##哔 +##哗 +##哟 +##員 +##哥 +##哦 +##哧 +##哨 +##哩 +##哪 +##哭 +##哮 +##哲 +##哺 +##哼 +##哽 +##唁 +##唄 +##唆 +##唇 +##唉 +##唏 +##唐 +##唑 +##唔 +##唠 +##唤 +##唧 +##唬 +##售 +##唯 +##唰 +##唱 +##唳 +##唷 +##唸 +##唾 +##啃 +##啄 +##商 +##啉 +##啊 +##問 +##啓 +##啕 +##啖 +##啜 +##啞 +##啟 +##啡 +##啤 +##啥 +##啦 +##啧 +##啪 +##啫 +##啬 +##啮 +##啰 +##啱 +##啲 +##啵 +##啶 +##啷 +##啸 +##啻 +##啼 +##啾 +##喀 +##喂 +##喃 +##善 +##喆 +##喇 +##喉 +##喊 +##喋 +##喎 +##喏 +##喔 +##喘 +##喙 +##喚 +##喜 +##喝 +##喟 +##喧 +##喪 +##喫 +##喬 +##單 +##喰 +##喱 +##喲 +##喳 +##喵 +##営 +##喷 +##喹 +##喺 +##喻 +##喽 +##嗅 +##嗆 +##嗇 +##嗎 +##嗑 +##嗒 +##嗓 +##嗔 +##嗖 +##嗚 +##嗜 +##嗝 +##嗟 +##嗡 +##嗣 +##嗤 +##嗦 +##嗨 +##嗪 +##嗬 +##嗯 +##嗰 +##嗲 +##嗳 +##嗶 +##嗷 +##嗽 +##嘀 +##嘅 +##嘆 +##嘈 +##嘉 +##嘌 +##嘍 +##嘎 +##嘔 +##嘖 +##嘗 +##嘘 +##嘚 +##嘛 +##嘜 +##嘞 +##嘟 +##嘢 +##嘣 +##嘤 +##嘧 +##嘩 +##嘭 +##嘮 +##嘯 +##嘰 +##嘱 +##嘲 +##嘴 +##嘶 +##嘸 +##嘹 +##嘻 +##嘿 +##噁 +##噌 +##噎 +##噓 +##噔 +##噗 +##噙 +##噜 +##噠 +##噢 +##噤 +##器 +##噩 +##噪 +##噬 +##噱 +##噴 +##噶 +##噸 +##噹 +##噻 +##噼 +##嚀 +##嚇 +##嚎 +##嚏 +##嚐 +##嚓 +##嚕 +##嚟 +##嚣 +##嚥 +##嚨 +##嚮 +##嚴 +##嚷 +##嚼 +##囂 +##囉 +##囊 +##囍 +##囑 +##囔 +##囗 +##囚 +##四 +##囝 +##回 +##囟 +##因 +##囡 +##团 +##団 +##囤 +##囧 +##囪 +##囫 +##园 +##困 +##囱 +##囲 +##図 +##围 +##囹 +##固 +##国 +##图 +##囿 +##圃 +##圄 +##圆 +##圈 +##國 +##圍 +##圏 +##園 +##圓 +##圖 +##團 +##圜 +##土 +##圣 +##圧 +##在 +##圩 +##圭 +##地 +##圳 +##场 +##圻 +##圾 +##址 +##坂 +##均 +##坊 +##坍 +##坎 +##坏 +##坐 +##坑 +##块 +##坚 +##坛 +##坝 +##坞 +##坟 +##坠 +##坡 +##坤 +##坦 +##坨 +##坪 +##坯 +##坳 +##坵 +##坷 +##垂 +##垃 +##垄 +##型 +##垒 +##垚 +##垛 +##垠 +##垢 +##垣 +##垦 +##垩 +##垫 +##垭 +##垮 +##垵 +##埂 +##埃 +##埋 +##城 +##埔 +##埕 +##埗 +##域 +##埠 +##埤 +##埵 +##執 +##埸 +##培 +##基 +##埼 +##堀 +##堂 +##堃 +##堅 +##堆 +##堇 +##堑 +##堕 +##堙 +##堡 +##堤 +##堪 +##堯 +##堰 +##報 +##場 +##堵 +##堺 +##堿 +##塊 +##塌 +##塑 +##塔 +##塗 +##塘 +##塚 +##塞 +##塢 +##塩 +##填 +##塬 +##塭 +##塵 +##塾 +##墀 +##境 +##墅 +##墉 +##墊 +##墒 +##墓 +##増 +##墘 +##墙 +##墜 +##增 +##墟 +##墨 +##墩 +##墮 +##墳 +##墻 +##墾 +##壁 +##壅 +##壆 +##壇 +##壊 +##壑 +##壓 +##壕 +##壘 +##壞 +##壟 +##壢 +##壤 +##壩 +##士 +##壬 +##壮 +##壯 +##声 +##売 +##壳 +##壶 +##壹 +##壺 +##壽 +##处 +##备 +##変 +##复 +##夏 +##夔 +##夕 +##外 +##夙 +##多 +##夜 +##够 +##夠 +##夢 +##夥 +##大 +##天 +##太 +##夫 +##夭 +##央 +##夯 +##失 +##头 +##夷 +##夸 +##夹 +##夺 +##夾 +##奂 +##奄 +##奇 +##奈 +##奉 +##奋 +##奎 +##奏 +##奐 +##契 +##奔 +##奕 +##奖 +##套 +##奘 +##奚 +##奠 +##奢 +##奥 +##奧 +##奪 +##奬 +##奮 +##女 +##奴 +##奶 +##奸 +##她 +##好 +##如 +##妃 +##妄 +##妆 +##妇 +##妈 +##妊 +##妍 +##妒 +##妓 +##妖 +##妘 +##妙 +##妝 +##妞 +##妣 +##妤 +##妥 +##妨 +##妩 +##妪 +##妮 +##妲 +##妳 +##妹 +##妻 +##妾 +##姆 +##姉 +##姊 +##始 +##姍 +##姐 +##姑 +##姒 +##姓 +##委 +##姗 +##姚 +##姜 +##姝 +##姣 +##姥 +##姦 +##姨 +##姪 +##姫 +##姬 +##姹 +##姻 +##姿 +##威 +##娃 +##娄 +##娅 +##娆 +##娇 +##娉 +##娑 +##娓 +##娘 +##娛 +##娜 +##娟 +##娠 +##娣 +##娥 +##娩 +##娱 +##娲 +##娴 +##娶 +##娼 +##婀 +##婁 +##婆 +##婉 +##婊 +##婕 +##婚 +##婢 +##婦 +##婧 +##婪 +##婭 +##婴 +##婵 +##婶 +##婷 +##婺 +##婿 +##媒 +##媚 +##媛 +##媞 +##媧 +##媲 +##媳 +##媽 +##媾 +##嫁 +##嫂 +##嫉 +##嫌 +##嫑 +##嫔 +##嫖 +##嫘 +##嫚 +##嫡 +##嫣 +##嫦 +##嫩 +##嫲 +##嫵 +##嫻 +##嬅 +##嬉 +##嬌 +##嬗 +##嬛 +##嬢 +##嬤 +##嬪 +##嬰 +##嬴 +##嬷 +##嬸 +##嬿 +##孀 +##孃 +##子 +##孑 +##孔 +##孕 +##孖 +##字 +##存 +##孙 +##孚 +##孛 +##孜 +##孝 +##孟 +##孢 +##季 +##孤 +##学 +##孩 +##孪 +##孫 +##孬 +##孰 +##孱 +##孳 +##孵 +##學 +##孺 +##孽 +##孿 +##宁 +##它 +##宅 +##宇 +##守 +##安 +##宋 +##完 +##宏 +##宓 +##宕 +##宗 +##官 +##宙 +##定 +##宛 +##宜 +##宝 +##实 +##実 +##宠 +##审 +##客 +##宣 +##室 +##宥 +##宦 +##宪 +##宫 +##宮 +##宰 +##害 +##宴 +##宵 +##家 +##宸 +##容 +##宽 +##宾 +##宿 +##寂 +##寄 +##寅 +##密 +##寇 +##富 +##寐 +##寒 +##寓 +##寛 +##寝 +##寞 +##察 +##寡 +##寢 +##寥 +##實 +##寧 +##寨 +##審 +##寫 +##寬 +##寮 +##寰 +##寵 +##寶 +##寸 +##对 +##寺 +##寻 +##导 +##対 +##寿 +##封 +##専 +##射 +##将 +##將 +##專 +##尉 +##尊 +##尋 +##對 +##導 +##小 +##少 +##尔 +##尕 +##尖 +##尘 +##尚 +##尝 +##尤 +##尧 +##尬 +##就 +##尴 +##尷 +##尸 +##尹 +##尺 +##尻 +##尼 +##尽 +##尾 +##尿 +##局 +##屁 +##层 +##屄 +##居 +##屆 +##屈 +##屉 +##届 +##屋 +##屌 +##屍 +##屎 +##屏 +##屐 +##屑 +##展 +##屜 +##属 +##屠 +##屡 +##屢 +##層 +##履 +##屬 +##屯 +##山 +##屹 +##屿 +##岀 +##岁 +##岂 +##岌 +##岐 +##岑 +##岔 +##岖 +##岗 +##岘 +##岙 +##岚 +##岛 +##岡 +##岩 +##岫 +##岬 +##岭 +##岱 +##岳 +##岷 +##岸 +##峇 +##峋 +##峒 +##峙 +##峡 +##峤 +##峥 +##峦 +##峨 +##峪 +##峭 +##峯 +##峰 +##峴 +##島 +##峻 +##峽 +##崁 +##崂 +##崆 +##崇 +##崎 +##崑 +##崔 +##崖 +##崗 +##崙 +##崛 +##崧 +##崩 +##崭 +##崴 +##崽 +##嵇 +##嵊 +##嵋 +##嵌 +##嵐 +##嵘 +##嵩 +##嵬 +##嵯 +##嶂 +##嶄 +##嶇 +##嶋 +##嶙 +##嶺 +##嶼 +##嶽 +##巅 +##巍 +##巒 +##巔 +##巖 +##川 +##州 +##巡 +##巢 +##工 +##左 +##巧 +##巨 +##巩 +##巫 +##差 +##己 +##已 +##巳 +##巴 +##巷 +##巻 +##巽 +##巾 +##巿 +##币 +##市 +##布 +##帅 +##帆 +##师 +##希 +##帐 +##帑 +##帕 +##帖 +##帘 +##帚 +##帛 +##帜 +##帝 +##帥 +##带 +##帧 +##師 +##席 +##帮 +##帯 +##帰 +##帳 +##帶 +##帷 +##常 +##帼 +##帽 +##幀 +##幂 +##幄 +##幅 +##幌 +##幔 +##幕 +##幟 +##幡 +##幢 +##幣 +##幫 +##干 +##平 +##年 +##并 +##幸 +##幹 +##幺 +##幻 +##幼 +##幽 +##幾 +##广 +##庁 +##広 +##庄 +##庆 +##庇 +##床 +##序 +##庐 +##库 +##应 +##底 +##庖 +##店 +##庙 +##庚 +##府 +##庞 +##废 +##庠 +##度 +##座 +##庫 +##庭 +##庵 +##庶 +##康 +##庸 +##庹 +##庾 +##廁 +##廂 +##廃 +##廈 +##廉 +##廊 +##廓 +##廖 +##廚 +##廝 +##廟 +##廠 +##廢 +##廣 +##廬 +##廳 +##延 +##廷 +##建 +##廿 +##开 +##弁 +##异 +##弃 +##弄 +##弈 +##弊 +##弋 +##式 +##弑 +##弒 +##弓 +##弔 +##引 +##弗 +##弘 +##弛 +##弟 +##张 +##弥 +##弦 +##弧 +##弩 +##弭 +##弯 +##弱 +##張 +##強 +##弹 +##强 +##弼 +##弾 +##彅 +##彆 +##彈 +##彌 +##彎 +##归 +##当 +##录 +##彗 +##彙 +##彝 +##形 +##彤 +##彥 +##彦 +##彧 +##彩 +##彪 +##彫 +##彬 +##彭 +##彰 +##影 +##彷 +##役 +##彻 +##彼 +##彿 +##往 +##征 +##径 +##待 +##徇 +##很 +##徉 +##徊 +##律 +##後 +##徐 +##徑 +##徒 +##従 +##徕 +##得 +##徘 +##徙 +##徜 +##從 +##徠 +##御 +##徨 +##復 +##循 +##徬 +##微 +##徳 +##徴 +##徵 +##德 +##徹 +##徼 +##徽 +##心 +##必 +##忆 +##忌 +##忍 +##忏 +##忐 +##忑 +##忒 +##忖 +##志 +##忘 +##忙 +##応 +##忠 +##忡 +##忤 +##忧 +##忪 +##快 +##忱 +##念 +##忻 +##忽 +##忿 +##怀 +##态 +##怂 +##怅 +##怆 +##怎 +##怏 +##怒 +##怔 +##怕 +##怖 +##怙 +##怜 +##思 +##怠 +##怡 +##急 +##怦 +##性 +##怨 +##怪 +##怯 +##怵 +##总 +##怼 +##恁 +##恃 +##恆 +##恋 +##恍 +##恐 +##恒 +##恕 +##恙 +##恚 +##恢 +##恣 +##恤 +##恥 +##恨 +##恩 +##恪 +##恫 +##恬 +##恭 +##息 +##恰 +##恳 +##恵 +##恶 +##恸 +##恺 +##恻 +##恼 +##恿 +##悄 +##悅 +##悉 +##悌 +##悍 +##悔 +##悖 +##悚 +##悟 +##悠 +##患 +##悦 +##您 +##悩 +##悪 +##悬 +##悯 +##悱 +##悲 +##悴 +##悵 +##悶 +##悸 +##悻 +##悼 +##悽 +##情 +##惆 +##惇 +##惊 +##惋 +##惑 +##惕 +##惘 +##惚 +##惜 +##惟 +##惠 +##惡 +##惦 +##惧 +##惨 +##惩 +##惫 +##惬 +##惭 +##惮 +##惯 +##惰 +##惱 +##想 +##惴 +##惶 +##惹 +##惺 +##愁 +##愆 +##愈 +##愉 +##愍 +##意 +##愕 +##愚 +##愛 +##愜 +##感 +##愣 +##愤 +##愧 +##愫 +##愷 +##愿 +##慄 +##慈 +##態 +##慌 +##慎 +##慑 +##慕 +##慘 +##慚 +##慟 +##慢 +##慣 +##慧 +##慨 +##慫 +##慮 +##慰 +##慳 +##慵 +##慶 +##慷 +##慾 +##憂 +##憊 +##憋 +##憎 +##憐 +##憑 +##憔 +##憚 +##憤 +##憧 +##憨 +##憩 +##憫 +##憬 +##憲 +##憶 +##憾 +##懂 +##懇 +##懈 +##應 +##懊 +##懋 +##懑 +##懒 +##懦 +##懲 +##懵 +##懶 +##懷 +##懸 +##懺 +##懼 +##懾 +##懿 +##戀 +##戈 +##戊 +##戌 +##戍 +##戎 +##戏 +##成 +##我 +##戒 +##戕 +##或 +##战 +##戚 +##戛 +##戟 +##戡 +##戦 +##截 +##戬 +##戮 +##戰 +##戲 +##戳 +##戴 +##戶 +##户 +##戸 +##戻 +##戾 +##房 +##所 +##扁 +##扇 +##扈 +##扉 +##手 +##才 +##扎 +##扑 +##扒 +##打 +##扔 +##払 +##托 +##扛 +##扣 +##扦 +##执 +##扩 +##扪 +##扫 +##扬 +##扭 +##扮 +##扯 +##扰 +##扱 +##扳 +##扶 +##批 +##扼 +##找 +##承 +##技 +##抄 +##抉 +##把 +##抑 +##抒 +##抓 +##投 +##抖 +##抗 +##折 +##抚 +##抛 +##抜 +##択 +##抟 +##抠 +##抡 +##抢 +##护 +##报 +##抨 +##披 +##抬 +##抱 +##抵 +##抹 +##押 +##抽 +##抿 +##拂 +##拄 +##担 +##拆 +##拇 +##拈 +##拉 +##拋 +##拌 +##拍 +##拎 +##拐 +##拒 +##拓 +##拔 +##拖 +##拗 +##拘 +##拙 +##拚 +##招 +##拜 +##拟 +##拡 +##拢 +##拣 +##拥 +##拦 +##拧 +##拨 +##择 +##括 +##拭 +##拮 +##拯 +##拱 +##拳 +##拴 +##拷 +##拼 +##拽 +##拾 +##拿 +##持 +##挂 +##指 +##挈 +##按 +##挎 +##挑 +##挖 +##挙 +##挚 +##挛 +##挝 +##挞 +##挟 +##挠 +##挡 +##挣 +##挤 +##挥 +##挨 +##挪 +##挫 +##振 +##挲 +##挹 +##挺 +##挽 +##挾 +##捂 +##捅 +##捆 +##捉 +##捋 +##捌 +##捍 +##捎 +##捏 +##捐 +##捕 +##捞 +##损 +##捡 +##换 +##捣 +##捧 +##捨 +##捩 +##据 +##捱 +##捲 +##捶 +##捷 +##捺 +##捻 +##掀 +##掂 +##掃 +##掇 +##授 +##掉 +##掌 +##掏 +##掐 +##排 +##掖 +##掘 +##掙 +##掛 +##掠 +##採 +##探 +##掣 +##接 +##控 +##推 +##掩 +##措 +##掬 +##掰 +##掲 +##掳 +##掴 +##掷 +##掸 +##掺 +##揀 +##揃 +##揄 +##揆 +##揉 +##揍 +##描 +##提 +##插 +##揖 +##揚 +##換 +##握 +##揣 +##揩 +##揪 +##揭 +##揮 +##援 +##揶 +##揸 +##揹 +##揽 +##搀 +##搁 +##搂 +##搅 +##損 +##搏 +##搐 +##搓 +##搔 +##搖 +##搗 +##搜 +##搞 +##搡 +##搪 +##搬 +##搭 +##搵 +##搶 +##携 +##搽 +##摀 +##摁 +##摄 +##摆 +##摇 +##摈 +##摊 +##摒 +##摔 +##摘 +##摞 +##摟 +##摧 +##摩 +##摯 +##摳 +##摸 +##摹 +##摺 +##摻 +##撂 +##撃 +##撅 +##撇 +##撈 +##撐 +##撑 +##撒 +##撓 +##撕 +##撚 +##撞 +##撤 +##撥 +##撩 +##撫 +##撬 +##播 +##撮 +##撰 +##撲 +##撵 +##撷 +##撸 +##撻 +##撼 +##撿 +##擀 +##擁 +##擂 +##擄 +##擅 +##擇 +##擊 +##擋 +##操 +##擎 +##擒 +##擔 +##擘 +##據 +##擞 +##擠 +##擡 +##擢 +##擦 +##擬 +##擰 +##擱 +##擲 +##擴 +##擷 +##擺 +##擼 +##擾 +##攀 +##攏 +##攒 +##攔 +##攘 +##攙 +##攜 +##攝 +##攞 +##攢 +##攣 +##攤 +##攥 +##攪 +##攫 +##攬 +##支 +##收 +##攸 +##改 +##攻 +##放 +##政 +##故 +##效 +##敌 +##敍 +##敎 +##敏 +##救 +##敕 +##敖 +##敗 +##敘 +##教 +##敛 +##敝 +##敞 +##敢 +##散 +##敦 +##敬 +##数 +##敲 +##整 +##敵 +##敷 +##數 +##斂 +##斃 +##文 +##斋 +##斌 +##斎 +##斐 +##斑 +##斓 +##斗 +##料 +##斛 +##斜 +##斟 +##斡 +##斤 +##斥 +##斧 +##斩 +##斫 +##斬 +##断 +##斯 +##新 +##斷 +##方 +##於 +##施 +##旁 +##旃 +##旅 +##旋 +##旌 +##旎 +##族 +##旖 +##旗 +##无 +##既 +##日 +##旦 +##旧 +##旨 +##早 +##旬 +##旭 +##旮 +##旱 +##时 +##旷 +##旺 +##旻 +##昀 +##昂 +##昆 +##昇 +##昉 +##昊 +##昌 +##明 +##昏 +##易 +##昔 +##昕 +##昙 +##星 +##映 +##春 +##昧 +##昨 +##昭 +##是 +##昱 +##昴 +##昵 +##昶 +##昼 +##显 +##晁 +##時 +##晃 +##晉 +##晋 +##晌 +##晏 +##晒 +##晓 +##晔 +##晕 +##晖 +##晗 +##晚 +##晝 +##晞 +##晟 +##晤 +##晦 +##晨 +##晩 +##普 +##景 +##晰 +##晴 +##晶 +##晷 +##智 +##晾 +##暂 +##暄 +##暇 +##暈 +##暉 +##暌 +##暐 +##暑 +##暖 +##暗 +##暝 +##暢 +##暧 +##暨 +##暫 +##暮 +##暱 +##暴 +##暸 +##暹 +##曄 +##曆 +##曇 +##曉 +##曖 +##曙 +##曜 +##曝 +##曠 +##曦 +##曬 +##曰 +##曲 +##曳 +##更 +##書 +##曹 +##曼 +##曾 +##替 +##最 +##會 +##月 +##有 +##朋 +##服 +##朐 +##朔 +##朕 +##朗 +##望 +##朝 +##期 +##朦 +##朧 +##木 +##未 +##末 +##本 +##札 +##朮 +##术 +##朱 +##朴 +##朵 +##机 +##朽 +##杀 +##杂 +##权 +##杆 +##杈 +##杉 +##李 +##杏 +##材 +##村 +##杓 +##杖 +##杜 +##杞 +##束 +##杠 +##条 +##来 +##杨 +##杭 +##杯 +##杰 +##東 +##杳 +##杵 +##杷 +##杼 +##松 +##板 +##极 +##构 +##枇 +##枉 +##枋 +##析 +##枕 +##林 +##枚 +##果 +##枝 +##枢 +##枣 +##枪 +##枫 +##枭 +##枯 +##枰 +##枱 +##枳 +##架 +##枷 +##枸 +##柄 +##柏 +##某 +##柑 +##柒 +##染 +##柔 +##柘 +##柚 +##柜 +##柞 +##柠 +##柢 +##查 +##柩 +##柬 +##柯 +##柱 +##柳 +##柴 +##柵 +##査 +##柿 +##栀 +##栃 +##栄 +##栅 +##标 +##栈 +##栉 +##栋 +##栎 +##栏 +##树 +##栓 +##栖 +##栗 +##校 +##栩 +##株 +##样 +##核 +##根 +##格 +##栽 +##栾 +##桀 +##桁 +##桂 +##桃 +##桅 +##框 +##案 +##桉 +##桌 +##桎 +##桐 +##桑 +##桓 +##桔 +##桜 +##桠 +##桡 +##桢 +##档 +##桥 +##桦 +##桧 +##桨 +##桩 +##桶 +##桿 +##梁 +##梅 +##梆 +##梏 +##梓 +##梗 +##條 +##梟 +##梢 +##梦 +##梧 +##梨 +##梭 +##梯 +##械 +##梳 +##梵 +##梶 +##检 +##棂 +##棄 +##棉 +##棋 +##棍 +##棒 +##棕 +##棗 +##棘 +##棚 +##棟 +##棠 +##棣 +##棧 +##森 +##棱 +##棲 +##棵 +##棹 +##棺 +##椁 +##椅 +##椋 +##植 +##椎 +##椒 +##検 +##椪 +##椭 +##椰 +##椹 +##椽 +##椿 +##楂 +##楊 +##楓 +##楔 +##楚 +##楝 +##楞 +##楠 +##楣 +##楨 +##楫 +##業 +##楮 +##極 +##楷 +##楸 +##楹 +##楼 +##楽 +##概 +##榄 +##榆 +##榈 +##榉 +##榔 +##榕 +##榖 +##榛 +##榜 +##榨 +##榫 +##榭 +##榮 +##榱 +##榴 +##榷 +##榻 +##槁 +##槃 +##構 +##槌 +##槍 +##槎 +##槐 +##槓 +##様 +##槛 +##槟 +##槤 +##槭 +##槲 +##槳 +##槻 +##槽 +##槿 +##樁 +##樂 +##樊 +##樑 +##樓 +##標 +##樞 +##樟 +##模 +##樣 +##権 +##横 +##樫 +##樯 +##樱 +##樵 +##樸 +##樹 +##樺 +##樽 +##樾 +##橄 +##橇 +##橋 +##橐 +##橘 +##橙 +##機 +##橡 +##橢 +##橫 +##橱 +##橹 +##橼 +##檀 +##檄 +##檎 +##檐 +##檔 +##檗 +##檜 +##檢 +##檬 +##檯 +##檳 +##檸 +##檻 +##櫃 +##櫚 +##櫛 +##櫥 +##櫸 +##櫻 +##欄 +##權 +##欒 +##欖 +##欠 +##次 +##欢 +##欣 +##欧 +##欲 +##欸 +##欺 +##欽 +##款 +##歆 +##歇 +##歉 +##歌 +##歎 +##歐 +##歓 +##歙 +##歛 +##歡 +##止 +##正 +##此 +##步 +##武 +##歧 +##歩 +##歪 +##歯 +##歲 +##歳 +##歴 +##歷 +##歸 +##歹 +##死 +##歼 +##殁 +##殃 +##殆 +##殇 +##殉 +##殊 +##残 +##殒 +##殓 +##殖 +##殘 +##殞 +##殡 +##殤 +##殭 +##殯 +##殲 +##殴 +##段 +##殷 +##殺 +##殼 +##殿 +##毀 +##毁 +##毂 +##毅 +##毆 +##毋 +##母 +##毎 +##每 +##毒 +##毓 +##比 +##毕 +##毗 +##毘 +##毙 +##毛 +##毡 +##毫 +##毯 +##毽 +##氈 +##氏 +##氐 +##民 +##氓 +##气 +##氖 +##気 +##氙 +##氛 +##氟 +##氡 +##氢 +##氣 +##氤 +##氦 +##氧 +##氨 +##氪 +##氫 +##氮 +##氯 +##氰 +##氲 +##水 +##氷 +##永 +##氹 +##氾 +##汀 +##汁 +##求 +##汆 +##汇 +##汉 +##汎 +##汐 +##汕 +##汗 +##汙 +##汛 +##汝 +##汞 +##江 +##池 +##污 +##汤 +##汨 +##汩 +##汪 +##汰 +##汲 +##汴 +##汶 +##汹 +##決 +##汽 +##汾 +##沁 +##沂 +##沃 +##沅 +##沈 +##沉 +##沌 +##沏 +##沐 +##沒 +##沓 +##沖 +##沙 +##沛 +##沟 +##没 +##沢 +##沣 +##沥 +##沦 +##沧 +##沪 +##沫 +##沭 +##沮 +##沱 +##河 +##沸 +##油 +##治 +##沼 +##沽 +##沾 +##沿 +##況 +##泄 +##泉 +##泊 +##泌 +##泓 +##法 +##泗 +##泛 +##泞 +##泠 +##泡 +##波 +##泣 +##泥 +##注 +##泪 +##泫 +##泮 +##泯 +##泰 +##泱 +##泳 +##泵 +##泷 +##泸 +##泻 +##泼 +##泽 +##泾 +##洁 +##洄 +##洋 +##洒 +##洗 +##洙 +##洛 +##洞 +##津 +##洩 +##洪 +##洮 +##洱 +##洲 +##洵 +##洶 +##洸 +##洹 +##活 +##洼 +##洽 +##派 +##流 +##浃 +##浄 +##浅 +##浆 +##浇 +##浊 +##测 +##济 +##浏 +##浑 +##浒 +##浓 +##浔 +##浙 +##浚 +##浜 +##浣 +##浦 +##浩 +##浪 +##浬 +##浮 +##浯 +##浴 +##海 +##浸 +##涂 +##涅 +##涇 +##消 +##涉 +##涌 +##涎 +##涓 +##涔 +##涕 +##涙 +##涛 +##涝 +##涞 +##涟 +##涠 +##涡 +##涣 +##涤 +##润 +##涧 +##涨 +##涩 +##涪 +##涮 +##涯 +##液 +##涵 +##涸 +##涼 +##涿 +##淀 +##淄 +##淅 +##淆 +##淇 +##淋 +##淌 +##淑 +##淒 +##淖 +##淘 +##淙 +##淚 +##淞 +##淡 +##淤 +##淦 +##淨 +##淩 +##淪 +##淫 +##淬 +##淮 +##深 +##淳 +##淵 +##混 +##淹 +##淺 +##添 +##淼 +##清 +##済 +##渉 +##渊 +##渋 +##渍 +##渎 +##渐 +##渔 +##渗 +##渙 +##渚 +##減 +##渝 +##渠 +##渡 +##渣 +##渤 +##渥 +##渦 +##温 +##測 +##渭 +##港 +##渲 +##渴 +##游 +##渺 +##渾 +##湃 +##湄 +##湊 +##湍 +##湖 +##湘 +##湛 +##湟 +##湧 +##湫 +##湮 +##湯 +##湳 +##湾 +##湿 +##満 +##溃 +##溅 +##溉 +##溏 +##源 +##準 +##溜 +##溝 +##溟 +##溢 +##溥 +##溧 +##溪 +##溫 +##溯 +##溱 +##溴 +##溶 +##溺 +##溼 +##滁 +##滂 +##滄 +##滅 +##滇 +##滋 +##滌 +##滑 +##滓 +##滔 +##滕 +##滙 +##滚 +##滝 +##滞 +##滟 +##满 +##滢 +##滤 +##滥 +##滦 +##滨 +##滩 +##滬 +##滯 +##滲 +##滴 +##滷 +##滸 +##滾 +##滿 +##漁 +##漂 +##漆 +##漉 +##漏 +##漓 +##演 +##漕 +##漠 +##漢 +##漣 +##漩 +##漪 +##漫 +##漬 +##漯 +##漱 +##漲 +##漳 +##漸 +##漾 +##漿 +##潆 +##潇 +##潋 +##潍 +##潑 +##潔 +##潘 +##潛 +##潜 +##潞 +##潟 +##潢 +##潤 +##潦 +##潧 +##潭 +##潮 +##潰 +##潴 +##潸 +##潺 +##潼 +##澀 +##澄 +##澆 +##澈 +##澍 +##澎 +##澗 +##澜 +##澡 +##澤 +##澧 +##澱 +##澳 +##澹 +##激 +##濁 +##濂 +##濃 +##濑 +##濒 +##濕 +##濘 +##濛 +##濟 +##濠 +##濡 +##濤 +##濫 +##濬 +##濮 +##濯 +##濱 +##濺 +##濾 +##瀅 +##瀆 +##瀉 +##瀋 +##瀏 +##瀑 +##瀕 +##瀘 +##瀚 +##瀛 +##瀝 +##瀞 +##瀟 +##瀧 +##瀨 +##瀬 +##瀰 +##瀾 +##灌 +##灏 +##灑 +##灘 +##灝 +##灞 +##灣 +##火 +##灬 +##灭 +##灯 +##灰 +##灵 +##灶 +##灸 +##灼 +##災 +##灾 +##灿 +##炀 +##炁 +##炅 +##炉 +##炊 +##炎 +##炒 +##炔 +##炕 +##炖 +##炙 +##炜 +##炫 +##炬 +##炭 +##炮 +##炯 +##炳 +##炷 +##炸 +##点 +##為 +##炼 +##炽 +##烁 +##烂 +##烃 +##烈 +##烊 +##烏 +##烘 +##烙 +##烛 +##烟 +##烤 +##烦 +##烧 +##烨 +##烩 +##烫 +##烬 +##热 +##烯 +##烷 +##烹 +##烽 +##焉 +##焊 +##焕 +##焖 +##焗 +##焘 +##焙 +##焚 +##焜 +##無 +##焦 +##焯 +##焰 +##焱 +##然 +##焼 +##煅 +##煉 +##煊 +##煌 +##煎 +##煒 +##煖 +##煙 +##煜 +##煞 +##煤 +##煥 +##煦 +##照 +##煨 +##煩 +##煮 +##煲 +##煸 +##煽 +##熄 +##熊 +##熏 +##熒 +##熔 +##熙 +##熟 +##熠 +##熨 +##熬 +##熱 +##熵 +##熹 +##熾 +##燁 +##燃 +##燄 +##燈 +##燉 +##燊 +##燎 +##燒 +##燔 +##燕 +##燙 +##燜 +##營 +##燥 +##燦 +##燧 +##燭 +##燮 +##燴 +##燻 +##燼 +##燿 +##爆 +##爍 +##爐 +##爛 +##爪 +##爬 +##爭 +##爰 +##爱 +##爲 +##爵 +##父 +##爷 +##爸 +##爹 +##爺 +##爻 +##爽 +##爾 +##牆 +##片 +##版 +##牌 +##牍 +##牒 +##牙 +##牛 +##牝 +##牟 +##牠 +##牡 +##牢 +##牦 +##牧 +##物 +##牯 +##牲 +##牴 +##牵 +##特 +##牺 +##牽 +##犀 +##犁 +##犄 +##犊 +##犍 +##犒 +##犢 +##犧 +##犬 +##犯 +##状 +##犷 +##犸 +##犹 +##狀 +##狂 +##狄 +##狈 +##狎 +##狐 +##狒 +##狗 +##狙 +##狞 +##狠 +##狡 +##狩 +##独 +##狭 +##狮 +##狰 +##狱 +##狸 +##狹 +##狼 +##狽 +##猎 +##猕 +##猖 +##猗 +##猙 +##猛 +##猜 +##猝 +##猥 +##猩 +##猪 +##猫 +##猬 +##献 +##猴 +##猶 +##猷 +##猾 +##猿 +##獄 +##獅 +##獎 +##獐 +##獒 +##獗 +##獠 +##獣 +##獨 +##獭 +##獰 +##獲 +##獵 +##獷 +##獸 +##獺 +##獻 +##獼 +##獾 +##玄 +##率 +##玉 +##王 +##玑 +##玖 +##玛 +##玟 +##玠 +##玥 +##玩 +##玫 +##玮 +##环 +##现 +##玲 +##玳 +##玷 +##玺 +##玻 +##珀 +##珂 +##珅 +##珈 +##珉 +##珊 +##珍 +##珏 +##珐 +##珑 +##珙 +##珞 +##珠 +##珣 +##珥 +##珩 +##珪 +##班 +##珮 +##珲 +##珺 +##現 +##球 +##琅 +##理 +##琇 +##琉 +##琊 +##琍 +##琏 +##琐 +##琛 +##琢 +##琥 +##琦 +##琨 +##琪 +##琬 +##琮 +##琰 +##琲 +##琳 +##琴 +##琵 +##琶 +##琺 +##琼 +##瑀 +##瑁 +##瑄 +##瑋 +##瑕 +##瑗 +##瑙 +##瑚 +##瑛 +##瑜 +##瑞 +##瑟 +##瑠 +##瑣 +##瑤 +##瑩 +##瑪 +##瑯 +##瑰 +##瑶 +##瑾 +##璀 +##璁 +##璃 +##璇 +##璉 +##璋 +##璎 +##璐 +##璜 +##璞 +##璟 +##璧 +##璨 +##環 +##璽 +##璿 +##瓊 +##瓏 +##瓒 +##瓜 +##瓢 +##瓣 +##瓤 +##瓦 +##瓮 +##瓯 +##瓴 +##瓶 +##瓷 +##甄 +##甌 +##甕 +##甘 +##甙 +##甚 +##甜 +##生 +##產 +##産 +##甥 +##甦 +##用 +##甩 +##甫 +##甬 +##甭 +##甯 +##田 +##由 +##甲 +##申 +##电 +##男 +##甸 +##町 +##画 +##甾 +##畀 +##畅 +##界 +##畏 +##畑 +##畔 +##留 +##畜 +##畝 +##畢 +##略 +##畦 +##番 +##畫 +##異 +##畲 +##畳 +##畴 +##當 +##畸 +##畹 +##畿 +##疆 +##疇 +##疊 +##疏 +##疑 +##疔 +##疖 +##疗 +##疙 +##疚 +##疝 +##疟 +##疡 +##疣 +##疤 +##疥 +##疫 +##疮 +##疯 +##疱 +##疲 +##疳 +##疵 +##疸 +##疹 +##疼 +##疽 +##疾 +##痂 +##病 +##症 +##痈 +##痉 +##痊 +##痍 +##痒 +##痔 +##痕 +##痘 +##痙 +##痛 +##痞 +##痠 +##痢 +##痣 +##痤 +##痧 +##痨 +##痪 +##痫 +##痰 +##痱 +##痴 +##痹 +##痺 +##痼 +##痿 +##瘀 +##瘁 +##瘋 +##瘍 +##瘓 +##瘘 +##瘙 +##瘟 +##瘠 +##瘡 +##瘢 +##瘤 +##瘦 +##瘧 +##瘩 +##瘪 +##瘫 +##瘴 +##瘸 +##瘾 +##療 +##癇 +##癌 +##癒 +##癖 +##癜 +##癞 +##癡 +##癢 +##癣 +##癥 +##癫 +##癬 +##癮 +##癱 +##癲 +##癸 +##発 +##登 +##發 +##白 +##百 +##皂 +##的 +##皆 +##皇 +##皈 +##皋 +##皎 +##皑 +##皓 +##皖 +##皙 +##皚 +##皮 +##皰 +##皱 +##皴 +##皺 +##皿 +##盂 +##盃 +##盅 +##盆 +##盈 +##益 +##盎 +##盏 +##盐 +##监 +##盒 +##盔 +##盖 +##盗 +##盘 +##盛 +##盜 +##盞 +##盟 +##盡 +##監 +##盤 +##盥 +##盧 +##盪 +##目 +##盯 +##盱 +##盲 +##直 +##相 +##盹 +##盼 +##盾 +##省 +##眈 +##眉 +##看 +##県 +##眙 +##眞 +##真 +##眠 +##眦 +##眨 +##眩 +##眯 +##眶 +##眷 +##眸 +##眺 +##眼 +##眾 +##着 +##睁 +##睇 +##睏 +##睐 +##睑 +##睛 +##睜 +##睞 +##睡 +##睢 +##督 +##睥 +##睦 +##睨 +##睪 +##睫 +##睬 +##睹 +##睽 +##睾 +##睿 +##瞄 +##瞅 +##瞇 +##瞋 +##瞌 +##瞎 +##瞑 +##瞒 +##瞓 +##瞞 +##瞟 +##瞠 +##瞥 +##瞧 +##瞩 +##瞪 +##瞬 +##瞭 +##瞰 +##瞳 +##瞻 +##瞼 +##瞿 +##矇 +##矍 +##矗 +##矚 +##矛 +##矜 +##矢 +##矣 +##知 +##矩 +##矫 +##短 +##矮 +##矯 +##石 +##矶 +##矽 +##矾 +##矿 +##码 +##砂 +##砌 +##砍 +##砒 +##研 +##砖 +##砗 +##砚 +##砝 +##砣 +##砥 +##砧 +##砭 +##砰 +##砲 +##破 +##砷 +##砸 +##砺 +##砼 +##砾 +##础 +##硅 +##硐 +##硒 +##硕 +##硝 +##硫 +##硬 +##确 +##硯 +##硼 +##碁 +##碇 +##碉 +##碌 +##碍 +##碎 +##碑 +##碓 +##碗 +##碘 +##碚 +##碛 +##碟 +##碣 +##碧 +##碩 +##碰 +##碱 +##碳 +##碴 +##確 +##碼 +##碾 +##磁 +##磅 +##磊 +##磋 +##磐 +##磕 +##磚 +##磡 +##磨 +##磬 +##磯 +##磲 +##磷 +##磺 +##礁 +##礎 +##礙 +##礡 +##礦 +##礪 +##礫 +##礴 +##示 +##礼 +##社 +##祀 +##祁 +##祂 +##祇 +##祈 +##祉 +##祎 +##祐 +##祕 +##祖 +##祗 +##祚 +##祛 +##祜 +##祝 +##神 +##祟 +##祠 +##祢 +##祥 +##票 +##祭 +##祯 +##祷 +##祸 +##祺 +##祿 +##禀 +##禁 +##禄 +##禅 +##禍 +##禎 +##福 +##禛 +##禦 +##禧 +##禪 +##禮 +##禱 +##禹 +##禺 +##离 +##禽 +##禾 +##禿 +##秀 +##私 +##秃 +##秆 +##秉 +##秋 +##种 +##科 +##秒 +##秘 +##租 +##秣 +##秤 +##秦 +##秧 +##秩 +##秭 +##积 +##称 +##秸 +##移 +##秽 +##稀 +##稅 +##程 +##稍 +##税 +##稔 +##稗 +##稚 +##稜 +##稞 +##稟 +##稠 +##稣 +##種 +##稱 +##稲 +##稳 +##稷 +##稹 +##稻 +##稼 +##稽 +##稿 +##穀 +##穂 +##穆 +##穌 +##積 +##穎 +##穗 +##穢 +##穩 +##穫 +##穴 +##究 +##穷 +##穹 +##空 +##穿 +##突 +##窃 +##窄 +##窈 +##窍 +##窑 +##窒 +##窓 +##窕 +##窖 +##窗 +##窘 +##窜 +##窝 +##窟 +##窠 +##窥 +##窦 +##窨 +##窩 +##窪 +##窮 +##窯 +##窺 +##窿 +##竄 +##竅 +##竇 +##竊 +##立 +##竖 +##站 +##竜 +##竞 +##竟 +##章 +##竣 +##童 +##竭 +##端 +##競 +##竹 +##竺 +##竽 +##竿 +##笃 +##笆 +##笈 +##笋 +##笏 +##笑 +##笔 +##笙 +##笛 +##笞 +##笠 +##符 +##笨 +##第 +##笹 +##笺 +##笼 +##筆 +##等 +##筊 +##筋 +##筍 +##筏 +##筐 +##筑 +##筒 +##答 +##策 +##筛 +##筝 +##筠 +##筱 +##筲 +##筵 +##筷 +##筹 +##签 +##简 +##箇 +##箋 +##箍 +##箏 +##箐 +##箔 +##箕 +##算 +##箝 +##管 +##箩 +##箫 +##箭 +##箱 +##箴 +##箸 +##節 +##篁 +##範 +##篆 +##篇 +##築 +##篑 +##篓 +##篙 +##篝 +##篠 +##篡 +##篤 +##篩 +##篪 +##篮 +##篱 +##篷 +##簇 +##簌 +##簍 +##簡 +##簦 +##簧 +##簪 +##簫 +##簷 +##簸 +##簽 +##簾 +##簿 +##籁 +##籃 +##籌 +##籍 +##籐 +##籟 +##籠 +##籤 +##籬 +##籮 +##籲 +##米 +##类 +##籼 +##籽 +##粄 +##粉 +##粑 +##粒 +##粕 +##粗 +##粘 +##粟 +##粤 +##粥 +##粧 +##粪 +##粮 +##粱 +##粲 +##粳 +##粵 +##粹 +##粼 +##粽 +##精 +##粿 +##糅 +##糊 +##糍 +##糕 +##糖 +##糗 +##糙 +##糜 +##糞 +##糟 +##糠 +##糧 +##糬 +##糯 +##糰 +##糸 +##系 +##糾 +##紀 +##紂 +##約 +##紅 +##紉 +##紊 +##紋 +##納 +##紐 +##紓 +##純 +##紗 +##紘 +##紙 +##級 +##紛 +##紜 +##素 +##紡 +##索 +##紧 +##紫 +##紮 +##累 +##細 +##紳 +##紹 +##紺 +##終 +##絃 +##組 +##絆 +##経 +##結 +##絕 +##絞 +##絡 +##絢 +##給 +##絨 +##絮 +##統 +##絲 +##絳 +##絵 +##絶 +##絹 +##綁 +##綏 +##綑 +##經 +##継 +##続 +##綜 +##綠 +##綢 +##綦 +##綫 +##綬 +##維 +##綱 +##網 +##綴 +##綵 +##綸 +##綺 +##綻 +##綽 +##綾 +##綿 +##緊 +##緋 +##総 +##緑 +##緒 +##緘 +##線 +##緝 +##緞 +##締 +##緣 +##編 +##緩 +##緬 +##緯 +##練 +##緹 +##緻 +##縁 +##縄 +##縈 +##縛 +##縝 +##縣 +##縫 +##縮 +##縱 +##縴 +##縷 +##總 +##績 +##繁 +##繃 +##繆 +##繇 +##繋 +##織 +##繕 +##繚 +##繞 +##繡 +##繩 +##繪 +##繫 +##繭 +##繳 +##繹 +##繼 +##繽 +##纂 +##續 +##纍 +##纏 +##纓 +##纔 +##纖 +##纜 +##纠 +##红 +##纣 +##纤 +##约 +##级 +##纨 +##纪 +##纫 +##纬 +##纭 +##纯 +##纰 +##纱 +##纲 +##纳 +##纵 +##纶 +##纷 +##纸 +##纹 +##纺 +##纽 +##纾 +##线 +##绀 +##练 +##组 +##绅 +##细 +##织 +##终 +##绊 +##绍 +##绎 +##经 +##绑 +##绒 +##结 +##绔 +##绕 +##绘 +##给 +##绚 +##绛 +##络 +##绝 +##绞 +##统 +##绡 +##绢 +##绣 +##绥 +##绦 +##继 +##绩 +##绪 +##绫 +##续 +##绮 +##绯 +##绰 +##绳 +##维 +##绵 +##绶 +##绷 +##绸 +##绻 +##综 +##绽 +##绾 +##绿 +##缀 +##缄 +##缅 +##缆 +##缇 +##缈 +##缉 +##缎 +##缓 +##缔 +##缕 +##编 +##缘 +##缙 +##缚 +##缜 +##缝 +##缠 +##缢 +##缤 +##缥 +##缨 +##缩 +##缪 +##缭 +##缮 +##缰 +##缱 +##缴 +##缸 +##缺 +##缽 +##罂 +##罄 +##罌 +##罐 +##网 +##罔 +##罕 +##罗 +##罚 +##罡 +##罢 +##罩 +##罪 +##置 +##罰 +##署 +##罵 +##罷 +##罹 +##羁 +##羅 +##羈 +##羊 +##羌 +##美 +##羔 +##羚 +##羞 +##羟 +##羡 +##羣 +##群 +##羥 +##羧 +##羨 +##義 +##羯 +##羲 +##羸 +##羹 +##羽 +##羿 +##翁 +##翅 +##翊 +##翌 +##翎 +##習 +##翔 +##翘 +##翟 +##翠 +##翡 +##翦 +##翩 +##翰 +##翱 +##翳 +##翹 +##翻 +##翼 +##耀 +##老 +##考 +##耄 +##者 +##耆 +##耋 +##而 +##耍 +##耐 +##耒 +##耕 +##耗 +##耘 +##耙 +##耦 +##耨 +##耳 +##耶 +##耷 +##耸 +##耻 +##耽 +##耿 +##聂 +##聆 +##聊 +##聋 +##职 +##聒 +##联 +##聖 +##聘 +##聚 +##聞 +##聪 +##聯 +##聰 +##聲 +##聳 +##聴 +##聶 +##職 +##聽 +##聾 +##聿 +##肃 +##肄 +##肅 +##肆 +##肇 +##肉 +##肋 +##肌 +##肏 +##肓 +##肖 +##肘 +##肚 +##肛 +##肝 +##肠 +##股 +##肢 +##肤 +##肥 +##肩 +##肪 +##肮 +##肯 +##肱 +##育 +##肴 +##肺 +##肽 +##肾 +##肿 +##胀 +##胁 +##胃 +##胄 +##胆 +##背 +##胍 +##胎 +##胖 +##胚 +##胛 +##胜 +##胝 +##胞 +##胡 +##胤 +##胥 +##胧 +##胫 +##胭 +##胯 +##胰 +##胱 +##胳 +##胴 +##胶 +##胸 +##胺 +##能 +##脂 +##脅 +##脆 +##脇 +##脈 +##脉 +##脊 +##脍 +##脏 +##脐 +##脑 +##脓 +##脖 +##脘 +##脚 +##脛 +##脣 +##脩 +##脫 +##脯 +##脱 +##脲 +##脳 +##脸 +##脹 +##脾 +##腆 +##腈 +##腊 +##腋 +##腌 +##腎 +##腐 +##腑 +##腓 +##腔 +##腕 +##腥 +##腦 +##腩 +##腫 +##腭 +##腮 +##腰 +##腱 +##腳 +##腴 +##腸 +##腹 +##腺 +##腻 +##腼 +##腾 +##腿 +##膀 +##膈 +##膊 +##膏 +##膑 +##膘 +##膚 +##膛 +##膜 +##膝 +##膠 +##膦 +##膨 +##膩 +##膳 +##膺 +##膻 +##膽 +##膾 +##膿 +##臀 +##臂 +##臃 +##臆 +##臉 +##臊 +##臍 +##臓 +##臘 +##臟 +##臣 +##臥 +##臧 +##臨 +##自 +##臬 +##臭 +##至 +##致 +##臺 +##臻 +##臼 +##臾 +##舀 +##舂 +##舅 +##舆 +##與 +##興 +##舉 +##舊 +##舌 +##舍 +##舎 +##舐 +##舒 +##舔 +##舖 +##舗 +##舛 +##舜 +##舞 +##舟 +##航 +##舫 +##般 +##舰 +##舱 +##舵 +##舶 +##舷 +##舸 +##船 +##舺 +##舾 +##艇 +##艋 +##艘 +##艙 +##艦 +##艮 +##良 +##艰 +##艱 +##色 +##艳 +##艷 +##艹 +##艺 +##艾 +##节 +##芃 +##芈 +##芊 +##芋 +##芍 +##芎 +##芒 +##芙 +##芜 +##芝 +##芡 +##芥 +##芦 +##芩 +##芪 +##芫 +##芬 +##芭 +##芮 +##芯 +##花 +##芳 +##芷 +##芸 +##芹 +##芻 +##芽 +##芾 +##苁 +##苄 +##苇 +##苋 +##苍 +##苏 +##苑 +##苒 +##苓 +##苔 +##苕 +##苗 +##苛 +##苜 +##苞 +##苟 +##苡 +##苣 +##若 +##苦 +##苫 +##苯 +##英 +##苷 +##苹 +##苻 +##茁 +##茂 +##范 +##茄 +##茅 +##茉 +##茎 +##茏 +##茗 +##茜 +##茧 +##茨 +##茫 +##茬 +##茭 +##茯 +##茱 +##茲 +##茴 +##茵 +##茶 +##茸 +##茹 +##茼 +##荀 +##荃 +##荆 +##草 +##荊 +##荏 +##荐 +##荒 +##荔 +##荖 +##荘 +##荚 +##荞 +##荟 +##荠 +##荡 +##荣 +##荤 +##荥 +##荧 +##荨 +##荪 +##荫 +##药 +##荳 +##荷 +##荸 +##荻 +##荼 +##荽 +##莅 +##莆 +##莉 +##莊 +##莎 +##莒 +##莓 +##莖 +##莘 +##莞 +##莠 +##莢 +##莧 +##莪 +##莫 +##莱 +##莲 +##莴 +##获 +##莹 +##莺 +##莽 +##莿 +##菀 +##菁 +##菅 +##菇 +##菈 +##菊 +##菌 +##菏 +##菓 +##菖 +##菘 +##菜 +##菟 +##菠 +##菡 +##菩 +##華 +##菱 +##菲 +##菸 +##菽 +##萁 +##萃 +##萄 +##萊 +##萋 +##萌 +##萍 +##萎 +##萘 +##萝 +##萤 +##营 +##萦 +##萧 +##萨 +##萩 +##萬 +##萱 +##萵 +##萸 +##萼 +##落 +##葆 +##葉 +##著 +##葚 +##葛 +##葡 +##董 +##葦 +##葩 +##葫 +##葬 +##葭 +##葯 +##葱 +##葳 +##葵 +##葷 +##葺 +##蒂 +##蒋 +##蒐 +##蒔 +##蒙 +##蒜 +##蒞 +##蒟 +##蒡 +##蒨 +##蒲 +##蒸 +##蒹 +##蒻 +##蒼 +##蒿 +##蓁 +##蓄 +##蓆 +##蓉 +##蓋 +##蓑 +##蓓 +##蓖 +##蓝 +##蓟 +##蓦 +##蓬 +##蓮 +##蓼 +##蓿 +##蔑 +##蔓 +##蔔 +##蔗 +##蔘 +##蔚 +##蔡 +##蔣 +##蔥 +##蔫 +##蔬 +##蔭 +##蔵 +##蔷 +##蔺 +##蔻 +##蔼 +##蔽 +##蕁 +##蕃 +##蕈 +##蕉 +##蕊 +##蕎 +##蕙 +##蕤 +##蕨 +##蕩 +##蕪 +##蕭 +##蕲 +##蕴 +##蕻 +##蕾 +##薄 +##薅 +##薇 +##薈 +##薊 +##薏 +##薑 +##薔 +##薙 +##薛 +##薦 +##薨 +##薩 +##薪 +##薬 +##薯 +##薰 +##薹 +##藉 +##藍 +##藏 +##藐 +##藓 +##藕 +##藜 +##藝 +##藤 +##藥 +##藩 +##藹 +##藻 +##藿 +##蘆 +##蘇 +##蘊 +##蘋 +##蘑 +##蘚 +##蘭 +##蘸 +##蘼 +##蘿 +##虎 +##虏 +##虐 +##虑 +##虔 +##處 +##虚 +##虛 +##虜 +##虞 +##號 +##虢 +##虧 +##虫 +##虬 +##虱 +##虹 +##虻 +##虽 +##虾 +##蚀 +##蚁 +##蚂 +##蚊 +##蚌 +##蚓 +##蚕 +##蚜 +##蚝 +##蚣 +##蚤 +##蚩 +##蚪 +##蚯 +##蚱 +##蚵 +##蛀 +##蛆 +##蛇 +##蛊 +##蛋 +##蛎 +##蛐 +##蛔 +##蛙 +##蛛 +##蛟 +##蛤 +##蛭 +##蛮 +##蛰 +##蛳 +##蛹 +##蛻 +##蛾 +##蜀 +##蜂 +##蜃 +##蜆 +##蜇 +##蜈 +##蜊 +##蜍 +##蜒 +##蜓 +##蜕 +##蜗 +##蜘 +##蜚 +##蜜 +##蜡 +##蜢 +##蜥 +##蜱 +##蜴 +##蜷 +##蜻 +##蜿 +##蝇 +##蝈 +##蝉 +##蝌 +##蝎 +##蝕 +##蝗 +##蝙 +##蝟 +##蝠 +##蝦 +##蝨 +##蝴 +##蝶 +##蝸 +##蝼 +##螂 +##螃 +##融 +##螞 +##螢 +##螨 +##螯 +##螳 +##螺 +##蟀 +##蟄 +##蟆 +##蟋 +##蟎 +##蟑 +##蟒 +##蟠 +##蟬 +##蟲 +##蟹 +##蟻 +##蟾 +##蠅 +##蠍 +##蠔 +##蠕 +##蠛 +##蠟 +##蠡 +##蠢 +##蠣 +##蠱 +##蠶 +##蠹 +##蠻 +##血 +##衄 +##衅 +##衆 +##行 +##衍 +##術 +##衔 +##街 +##衙 +##衛 +##衝 +##衞 +##衡 +##衢 +##衣 +##补 +##表 +##衩 +##衫 +##衬 +##衮 +##衰 +##衲 +##衷 +##衹 +##衾 +##衿 +##袁 +##袂 +##袄 +##袅 +##袈 +##袋 +##袍 +##袒 +##袖 +##袜 +##袞 +##袤 +##袪 +##被 +##袭 +##袱 +##裁 +##裂 +##装 +##裆 +##裊 +##裏 +##裔 +##裕 +##裘 +##裙 +##補 +##裝 +##裟 +##裡 +##裤 +##裨 +##裱 +##裳 +##裴 +##裸 +##裹 +##製 +##裾 +##褂 +##複 +##褐 +##褒 +##褓 +##褔 +##褚 +##褥 +##褪 +##褫 +##褲 +##褶 +##褻 +##襁 +##襄 +##襟 +##襠 +##襪 +##襬 +##襯 +##襲 +##西 +##要 +##覃 +##覆 +##覇 +##見 +##規 +##覓 +##視 +##覚 +##覦 +##覧 +##親 +##覬 +##観 +##覷 +##覺 +##覽 +##觀 +##见 +##观 +##规 +##觅 +##视 +##览 +##觉 +##觊 +##觎 +##觐 +##觑 +##角 +##觞 +##解 +##觥 +##触 +##觸 +##言 +##訂 +##計 +##訊 +##討 +##訓 +##訕 +##訖 +##託 +##記 +##訛 +##訝 +##訟 +##訣 +##訥 +##訪 +##設 +##許 +##訳 +##訴 +##訶 +##診 +##註 +##証 +##詆 +##詐 +##詔 +##評 +##詛 +##詞 +##詠 +##詡 +##詢 +##詣 +##試 +##詩 +##詫 +##詬 +##詭 +##詮 +##詰 +##話 +##該 +##詳 +##詹 +##詼 +##誅 +##誇 +##誉 +##誌 +##認 +##誓 +##誕 +##誘 +##語 +##誠 +##誡 +##誣 +##誤 +##誥 +##誦 +##誨 +##說 +##説 +##読 +##誰 +##課 +##誹 +##誼 +##調 +##諄 +##談 +##請 +##諏 +##諒 +##論 +##諗 +##諜 +##諡 +##諦 +##諧 +##諫 +##諭 +##諮 +##諱 +##諳 +##諷 +##諸 +##諺 +##諾 +##謀 +##謁 +##謂 +##謄 +##謊 +##謎 +##謐 +##謔 +##謗 +##謙 +##講 +##謝 +##謠 +##謨 +##謬 +##謹 +##謾 +##譁 +##證 +##譎 +##譏 +##識 +##譙 +##譚 +##譜 +##警 +##譬 +##譯 +##議 +##譲 +##譴 +##護 +##譽 +##讀 +##變 +##讓 +##讚 +##讞 +##计 +##订 +##认 +##讥 +##讧 +##讨 +##让 +##讪 +##讫 +##训 +##议 +##讯 +##记 +##讲 +##讳 +##讴 +##讶 +##讷 +##许 +##讹 +##论 +##讼 +##讽 +##设 +##访 +##诀 +##证 +##诃 +##评 +##诅 +##识 +##诈 +##诉 +##诊 +##诋 +##词 +##诏 +##译 +##试 +##诗 +##诘 +##诙 +##诚 +##诛 +##话 +##诞 +##诟 +##诠 +##诡 +##询 +##诣 +##诤 +##该 +##详 +##诧 +##诩 +##诫 +##诬 +##语 +##误 +##诰 +##诱 +##诲 +##说 +##诵 +##诶 +##请 +##诸 +##诺 +##读 +##诽 +##课 +##诿 +##谀 +##谁 +##调 +##谄 +##谅 +##谆 +##谈 +##谊 +##谋 +##谌 +##谍 +##谎 +##谏 +##谐 +##谑 +##谒 +##谓 +##谔 +##谕 +##谗 +##谘 +##谙 +##谚 +##谛 +##谜 +##谟 +##谢 +##谣 +##谤 +##谥 +##谦 +##谧 +##谨 +##谩 +##谪 +##谬 +##谭 +##谯 +##谱 +##谲 +##谴 +##谶 +##谷 +##豁 +##豆 +##豇 +##豈 +##豉 +##豊 +##豌 +##豎 +##豐 +##豔 +##豚 +##象 +##豢 +##豪 +##豫 +##豬 +##豹 +##豺 +##貂 +##貅 +##貌 +##貓 +##貔 +##貘 +##貝 +##貞 +##負 +##財 +##貢 +##貧 +##貨 +##販 +##貪 +##貫 +##責 +##貯 +##貰 +##貳 +##貴 +##貶 +##買 +##貸 +##費 +##貼 +##貽 +##貿 +##賀 +##賁 +##賂 +##賃 +##賄 +##資 +##賈 +##賊 +##賑 +##賓 +##賜 +##賞 +##賠 +##賡 +##賢 +##賣 +##賤 +##賦 +##質 +##賬 +##賭 +##賴 +##賺 +##購 +##賽 +##贅 +##贈 +##贊 +##贍 +##贏 +##贓 +##贖 +##贛 +##贝 +##贞 +##负 +##贡 +##财 +##责 +##贤 +##败 +##账 +##货 +##质 +##贩 +##贪 +##贫 +##贬 +##购 +##贮 +##贯 +##贰 +##贱 +##贲 +##贴 +##贵 +##贷 +##贸 +##费 +##贺 +##贻 +##贼 +##贾 +##贿 +##赁 +##赂 +##赃 +##资 +##赅 +##赈 +##赊 +##赋 +##赌 +##赎 +##赏 +##赐 +##赓 +##赔 +##赖 +##赘 +##赚 +##赛 +##赝 +##赞 +##赠 +##赡 +##赢 +##赣 +##赤 +##赦 +##赧 +##赫 +##赭 +##走 +##赳 +##赴 +##赵 +##赶 +##起 +##趁 +##超 +##越 +##趋 +##趕 +##趙 +##趟 +##趣 +##趨 +##足 +##趴 +##趵 +##趸 +##趺 +##趾 +##跃 +##跄 +##跆 +##跋 +##跌 +##跎 +##跑 +##跖 +##跚 +##跛 +##距 +##跟 +##跡 +##跤 +##跨 +##跩 +##跪 +##路 +##跳 +##践 +##跷 +##跹 +##跺 +##跻 +##踉 +##踊 +##踌 +##踏 +##踐 +##踝 +##踞 +##踟 +##踢 +##踩 +##踪 +##踮 +##踱 +##踴 +##踵 +##踹 +##蹂 +##蹄 +##蹇 +##蹈 +##蹉 +##蹊 +##蹋 +##蹑 +##蹒 +##蹙 +##蹟 +##蹣 +##蹤 +##蹦 +##蹩 +##蹬 +##蹭 +##蹲 +##蹴 +##蹶 +##蹺 +##蹼 +##蹿 +##躁 +##躇 +##躉 +##躊 +##躋 +##躍 +##躏 +##躪 +##身 +##躬 +##躯 +##躲 +##躺 +##軀 +##車 +##軋 +##軌 +##軍 +##軒 +##軟 +##転 +##軸 +##軼 +##軽 +##軾 +##較 +##載 +##輒 +##輓 +##輔 +##輕 +##輛 +##輝 +##輟 +##輩 +##輪 +##輯 +##輸 +##輻 +##輾 +##輿 +##轄 +##轅 +##轆 +##轉 +##轍 +##轎 +##轟 +##车 +##轧 +##轨 +##轩 +##转 +##轭 +##轮 +##软 +##轰 +##轲 +##轴 +##轶 +##轻 +##轼 +##载 +##轿 +##较 +##辄 +##辅 +##辆 +##辇 +##辈 +##辉 +##辊 +##辍 +##辐 +##辑 +##输 +##辕 +##辖 +##辗 +##辘 +##辙 +##辛 +##辜 +##辞 +##辟 +##辣 +##辦 +##辨 +##辩 +##辫 +##辭 +##辮 +##辯 +##辰 +##辱 +##農 +##边 +##辺 +##辻 +##込 +##辽 +##达 +##迁 +##迂 +##迄 +##迅 +##过 +##迈 +##迎 +##运 +##近 +##返 +##还 +##这 +##进 +##远 +##违 +##连 +##迟 +##迢 +##迤 +##迥 +##迦 +##迩 +##迪 +##迫 +##迭 +##述 +##迴 +##迷 +##迸 +##迹 +##迺 +##追 +##退 +##送 +##适 +##逃 +##逅 +##逆 +##选 +##逊 +##逍 +##透 +##逐 +##递 +##途 +##逕 +##逗 +##這 +##通 +##逛 +##逝 +##逞 +##速 +##造 +##逢 +##連 +##逮 +##週 +##進 +##逵 +##逶 +##逸 +##逻 +##逼 +##逾 +##遁 +##遂 +##遅 +##遇 +##遊 +##運 +##遍 +##過 +##遏 +##遐 +##遑 +##遒 +##道 +##達 +##違 +##遗 +##遙 +##遛 +##遜 +##遞 +##遠 +##遢 +##遣 +##遥 +##遨 +##適 +##遭 +##遮 +##遲 +##遴 +##遵 +##遶 +##遷 +##選 +##遺 +##遼 +##遽 +##避 +##邀 +##邁 +##邂 +##邃 +##還 +##邇 +##邈 +##邊 +##邋 +##邏 +##邑 +##邓 +##邕 +##邛 +##邝 +##邢 +##那 +##邦 +##邨 +##邪 +##邬 +##邮 +##邯 +##邰 +##邱 +##邳 +##邵 +##邸 +##邹 +##邺 +##邻 +##郁 +##郅 +##郊 +##郎 +##郑 +##郜 +##郝 +##郡 +##郢 +##郤 +##郦 +##郧 +##部 +##郫 +##郭 +##郴 +##郵 +##郷 +##郸 +##都 +##鄂 +##鄉 +##鄒 +##鄔 +##鄙 +##鄞 +##鄢 +##鄧 +##鄭 +##鄰 +##鄱 +##鄲 +##鄺 +##酉 +##酊 +##酋 +##酌 +##配 +##酐 +##酒 +##酗 +##酚 +##酝 +##酢 +##酣 +##酥 +##酩 +##酪 +##酬 +##酮 +##酯 +##酰 +##酱 +##酵 +##酶 +##酷 +##酸 +##酿 +##醃 +##醇 +##醉 +##醋 +##醍 +##醐 +##醒 +##醚 +##醛 +##醜 +##醞 +##醣 +##醪 +##醫 +##醬 +##醮 +##醯 +##醴 +##醺 +##釀 +##釁 +##采 +##釉 +##释 +##釋 +##里 +##重 +##野 +##量 +##釐 +##金 +##釗 +##釘 +##釜 +##針 +##釣 +##釦 +##釧 +##釵 +##鈀 +##鈉 +##鈍 +##鈎 +##鈔 +##鈕 +##鈞 +##鈣 +##鈦 +##鈪 +##鈴 +##鈺 +##鈾 +##鉀 +##鉄 +##鉅 +##鉉 +##鉑 +##鉗 +##鉚 +##鉛 +##鉤 +##鉴 +##鉻 +##銀 +##銃 +##銅 +##銑 +##銓 +##銖 +##銘 +##銜 +##銬 +##銭 +##銮 +##銳 +##銷 +##銹 +##鋁 +##鋅 +##鋒 +##鋤 +##鋪 +##鋰 +##鋸 +##鋼 +##錄 +##錐 +##錘 +##錚 +##錠 +##錢 +##錦 +##錨 +##錫 +##錮 +##錯 +##録 +##錳 +##錶 +##鍊 +##鍋 +##鍍 +##鍛 +##鍥 +##鍰 +##鍵 +##鍺 +##鍾 +##鎂 +##鎊 +##鎌 +##鎏 +##鎔 +##鎖 +##鎗 +##鎚 +##鎧 +##鎬 +##鎮 +##鎳 +##鏈 +##鏖 +##鏗 +##鏘 +##鏞 +##鏟 +##鏡 +##鏢 +##鏤 +##鏽 +##鐘 +##鐮 +##鐲 +##鐳 +##鐵 +##鐸 +##鐺 +##鑄 +##鑊 +##鑑 +##鑒 +##鑣 +##鑫 +##鑰 +##鑲 +##鑼 +##鑽 +##鑾 +##鑿 +##针 +##钉 +##钊 +##钎 +##钏 +##钒 +##钓 +##钗 +##钙 +##钛 +##钜 +##钝 +##钞 +##钟 +##钠 +##钡 +##钢 +##钣 +##钤 +##钥 +##钦 +##钧 +##钨 +##钩 +##钮 +##钯 +##钰 +##钱 +##钳 +##钴 +##钵 +##钺 +##钻 +##钼 +##钾 +##钿 +##铀 +##铁 +##铂 +##铃 +##铄 +##铅 +##铆 +##铉 +##铎 +##铐 +##铛 +##铜 +##铝 +##铠 +##铡 +##铢 +##铣 +##铤 +##铨 +##铩 +##铬 +##铭 +##铮 +##铰 +##铲 +##铵 +##银 +##铸 +##铺 +##链 +##铿 +##销 +##锁 +##锂 +##锄 +##锅 +##锆 +##锈 +##锉 +##锋 +##锌 +##锏 +##锐 +##锑 +##错 +##锚 +##锟 +##锡 +##锢 +##锣 +##锤 +##锥 +##锦 +##锭 +##键 +##锯 +##锰 +##锲 +##锵 +##锹 +##锺 +##锻 +##镀 +##镁 +##镂 +##镇 +##镉 +##镌 +##镍 +##镐 +##镑 +##镕 +##镖 +##镗 +##镛 +##镜 +##镣 +##镭 +##镯 +##镰 +##镳 +##镶 +##長 +##长 +##門 +##閃 +##閉 +##開 +##閎 +##閏 +##閑 +##閒 +##間 +##閔 +##閘 +##閡 +##関 +##閣 +##閥 +##閨 +##閩 +##閱 +##閲 +##閹 +##閻 +##閾 +##闆 +##闇 +##闊 +##闌 +##闍 +##闔 +##闕 +##闖 +##闘 +##關 +##闡 +##闢 +##门 +##闪 +##闫 +##闭 +##问 +##闯 +##闰 +##闲 +##间 +##闵 +##闷 +##闸 +##闹 +##闺 +##闻 +##闽 +##闾 +##阀 +##阁 +##阂 +##阅 +##阆 +##阇 +##阈 +##阉 +##阎 +##阐 +##阑 +##阔 +##阕 +##阖 +##阙 +##阚 +##阜 +##队 +##阡 +##阪 +##阮 +##阱 +##防 +##阳 +##阴 +##阵 +##阶 +##阻 +##阿 +##陀 +##陂 +##附 +##际 +##陆 +##陇 +##陈 +##陋 +##陌 +##降 +##限 +##陕 +##陛 +##陝 +##陞 +##陟 +##陡 +##院 +##陣 +##除 +##陨 +##险 +##陪 +##陰 +##陲 +##陳 +##陵 +##陶 +##陷 +##陸 +##険 +##陽 +##隅 +##隆 +##隈 +##隊 +##隋 +##隍 +##階 +##随 +##隐 +##隔 +##隕 +##隘 +##隙 +##際 +##障 +##隠 +##隣 +##隧 +##隨 +##險 +##隱 +##隴 +##隶 +##隸 +##隻 +##隼 +##隽 +##难 +##雀 +##雁 +##雄 +##雅 +##集 +##雇 +##雉 +##雋 +##雌 +##雍 +##雎 +##雏 +##雑 +##雒 +##雕 +##雖 +##雙 +##雛 +##雜 +##雞 +##離 +##難 +##雨 +##雪 +##雯 +##雰 +##雲 +##雳 +##零 +##雷 +##雹 +##電 +##雾 +##需 +##霁 +##霄 +##霆 +##震 +##霈 +##霉 +##霊 +##霍 +##霎 +##霏 +##霑 +##霓 +##霖 +##霜 +##霞 +##霧 +##霭 +##霰 +##露 +##霸 +##霹 +##霽 +##霾 +##靂 +##靄 +##靈 +##青 +##靓 +##靖 +##静 +##靚 +##靛 +##靜 +##非 +##靠 +##靡 +##面 +##靥 +##靦 +##革 +##靳 +##靴 +##靶 +##靼 +##鞅 +##鞋 +##鞍 +##鞏 +##鞑 +##鞘 +##鞠 +##鞣 +##鞦 +##鞭 +##韆 +##韋 +##韌 +##韓 +##韜 +##韦 +##韧 +##韩 +##韬 +##韭 +##音 +##韵 +##韶 +##韻 +##響 +##頁 +##頂 +##頃 +##項 +##順 +##須 +##頌 +##預 +##頑 +##頒 +##頓 +##頗 +##領 +##頜 +##頡 +##頤 +##頫 +##頭 +##頰 +##頷 +##頸 +##頹 +##頻 +##頼 +##顆 +##題 +##額 +##顎 +##顏 +##顔 +##願 +##顛 +##類 +##顧 +##顫 +##顯 +##顱 +##顴 +##页 +##顶 +##顷 +##项 +##顺 +##须 +##顼 +##顽 +##顾 +##顿 +##颁 +##颂 +##预 +##颅 +##领 +##颇 +##颈 +##颉 +##颊 +##颌 +##颍 +##颐 +##频 +##颓 +##颔 +##颖 +##颗 +##题 +##颚 +##颛 +##颜 +##额 +##颞 +##颠 +##颡 +##颢 +##颤 +##颦 +##颧 +##風 +##颯 +##颱 +##颳 +##颶 +##颼 +##飄 +##飆 +##风 +##飒 +##飓 +##飕 +##飘 +##飙 +##飚 +##飛 +##飞 +##食 +##飢 +##飨 +##飩 +##飪 +##飯 +##飲 +##飼 +##飽 +##飾 +##餃 +##餅 +##餉 +##養 +##餌 +##餐 +##餒 +##餓 +##餘 +##餚 +##餛 +##餞 +##餡 +##館 +##餮 +##餵 +##餾 +##饅 +##饈 +##饋 +##饌 +##饍 +##饑 +##饒 +##饕 +##饗 +##饞 +##饥 +##饨 +##饪 +##饬 +##饭 +##饮 +##饯 +##饰 +##饱 +##饲 +##饴 +##饵 +##饶 +##饷 +##饺 +##饼 +##饽 +##饿 +##馀 +##馁 +##馄 +##馅 +##馆 +##馈 +##馋 +##馍 +##馏 +##馒 +##馔 +##首 +##馗 +##香 +##馥 +##馨 +##馬 +##馭 +##馮 +##馳 +##馴 +##駁 +##駄 +##駅 +##駆 +##駐 +##駒 +##駕 +##駛 +##駝 +##駭 +##駱 +##駿 +##騁 +##騎 +##騏 +##験 +##騙 +##騨 +##騰 +##騷 +##驀 +##驅 +##驊 +##驍 +##驒 +##驕 +##驗 +##驚 +##驛 +##驟 +##驢 +##驥 +##马 +##驭 +##驮 +##驯 +##驰 +##驱 +##驳 +##驴 +##驶 +##驷 +##驸 +##驹 +##驻 +##驼 +##驾 +##驿 +##骁 +##骂 +##骄 +##骅 +##骆 +##骇 +##骈 +##骊 +##骋 +##验 +##骏 +##骐 +##骑 +##骗 +##骚 +##骛 +##骜 +##骞 +##骠 +##骡 +##骤 +##骥 +##骧 +##骨 +##骯 +##骰 +##骶 +##骷 +##骸 +##骼 +##髂 +##髅 +##髋 +##髏 +##髒 +##髓 +##體 +##髖 +##高 +##髦 +##髪 +##髮 +##髯 +##髻 +##鬃 +##鬆 +##鬍 +##鬓 +##鬚 +##鬟 +##鬢 +##鬣 +##鬥 +##鬧 +##鬱 +##鬼 +##魁 +##魂 +##魄 +##魅 +##魇 +##魍 +##魏 +##魔 +##魘 +##魚 +##魯 +##魷 +##鮑 +##鮨 +##鮪 +##鮭 +##鮮 +##鯉 +##鯊 +##鯖 +##鯛 +##鯨 +##鯰 +##鯽 +##鰍 +##鰓 +##鰭 +##鰲 +##鰻 +##鰾 +##鱈 +##鱉 +##鱔 +##鱗 +##鱷 +##鱸 +##鱼 +##鱿 +##鲁 +##鲈 +##鲍 +##鲑 +##鲛 +##鲜 +##鲟 +##鲢 +##鲤 +##鲨 +##鲫 +##鲱 +##鲲 +##鲶 +##鲷 +##鲸 +##鳃 +##鳄 +##鳅 +##鳌 +##鳍 +##鳕 +##鳖 +##鳗 +##鳝 +##鳞 +##鳥 +##鳩 +##鳳 +##鳴 +##鳶 +##鴉 +##鴕 +##鴛 +##鴦 +##鴨 +##鴻 +##鴿 +##鵑 +##鵜 +##鵝 +##鵡 +##鵬 +##鵰 +##鵲 +##鶘 +##鶩 +##鶯 +##鶴 +##鷗 +##鷲 +##鷹 +##鷺 +##鸚 +##鸞 +##鸟 +##鸠 +##鸡 +##鸢 +##鸣 +##鸥 +##鸦 +##鸨 +##鸪 +##鸭 +##鸯 +##鸳 +##鸵 +##鸽 +##鸾 +##鸿 +##鹂 +##鹃 +##鹄 +##鹅 +##鹈 +##鹉 +##鹊 +##鹌 +##鹏 +##鹑 +##鹕 +##鹘 +##鹜 +##鹞 +##鹤 +##鹦 +##鹧 +##鹫 +##鹭 +##鹰 +##鹳 +##鹵 +##鹹 +##鹼 +##鹽 +##鹿 +##麂 +##麋 +##麒 +##麓 +##麗 +##麝 +##麟 +##麥 +##麦 +##麩 +##麴 +##麵 +##麸 +##麺 +##麻 +##麼 +##麽 +##麾 +##黃 +##黄 +##黍 +##黎 +##黏 +##黑 +##黒 +##黔 +##默 +##黛 +##黜 +##黝 +##點 +##黠 +##黨 +##黯 +##黴 +##鼋 +##鼎 +##鼐 +##鼓 +##鼠 +##鼬 +##鼹 +##鼻 +##鼾 +##齁 +##齊 +##齋 +##齐 +##齒 +##齡 +##齢 +##齣 +##齦 +##齿 +##龄 +##龅 +##龈 +##龊 +##龋 +##龌 +##龍 +##龐 +##龔 +##龕 +##龙 +##龚 +##龛 +##龜 +##龟 +##︰ +##︱ +##︶ +##︿ +##﹁ +##﹂ +##﹍ +##﹏ +##﹐ +##﹑ +##﹒ +##﹔ +##﹕ +##﹖ +##﹗ +##﹙ +##﹚ +##﹝ +##﹞ +##﹡ +##﹣ +##! +##" +### +##$ +##% +##& +##' +##( +##) +##* +##, +##- +##. +##/ +##: +##; +##< +##? +##@ +##[ +##\ +##] +##^ +##_ +##` +##f +##h +##j +##u +##w +##z +##{ +##} +##。 +##「 +##」 +##、 +##・ +##ッ +##ー +##イ +##ク +##シ +##ス +##ト +##ノ +##フ +##ラ +##ル +##ン +##゙ +##゚ +## ̄ +##¥ +##👍 +##🔥 +##😂 +##😎 diff --git a/config.py b/config.py new file mode 100644 index 0000000000000000000000000000000000000000..7ee5100ff29018069709da348b70b1d096ec46a5 --- /dev/null +++ b/config.py @@ -0,0 +1,82 @@ +import torch +from transformers import BertTokenizer + +device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") +#device = torch.device("cpu") + +# Configure training/optimization +learning_rate = 0.02 #0.002 5e-5 +min_word_freq = 3 +print_every = 100 +chunk_size =3 #100 这个是batchsize + + +# num_labels = 20 +# num_classes = 4 # number of sentimental types + +# num_labels = 12 +# num_classes =3 # number of sentimental types + +num_labels = 14 +num_classes =3 + +save_folder = 'models' + +# Configure models +start_epoch = 0 +epochs = 150 +hidden_size = 768 #800 +encoder_n_layers = 12 #1 +dropout = 0.1 +batch_first = False + +filter_sizes = (5, 6, 7) +# train_folder = 'data/ai_challenger_sentiment_analysis_trainingset_20180816' +# valid_folder = 'data/ai_challenger_sentiment_analysis_validationset_20180816' +# test_a_folder = 'data/ai_challenger_sentiment_analysis_testa_20180816' +# +# train_filename = 'sentiment_analysis_trainingset.csv' +# valid_filename = 'sentiment_analysis_validationset.csv' +# test_a_filename = 'sentiment_analysis_testa2.csv' +'''自定义训练数据''' +train_folder = 'data/train' +valid_folder = 'data/valid' +test_a_folder = 'data/test' + +train_filename = 'train_data.csv' +valid_filename = 'val_data.csv' +test_a_filename = 'test_data.csv' + +# label_names = ['location_traffic_convenience', 'location_distance_from_business_district', 'location_easy_to_find', +# 'service_wait_time', 'service_waiters_attitude', 'service_parking_convenience', 'service_serving_speed', +# 'price_level', 'price_cost_effective', 'price_discount', 'environment_decoration', 'environment_noise', +# 'environment_space', 'environment_cleaness', 'dish_portion', 'dish_taste', 'dish_look', +# 'dish_recommendation', +# 'others_overall_experience', 'others_willing_to_consume_again'] +# label_names = ['1', '2', '3', +# '4', '5', '6', '7', +# '8', '9', '10', '11', '12'] + + +# label_names = ['location_traffic_convenience', 'location_distance_from_business_district', 'location_easy_to_find', +# 'service_wait_time', 'service_waiters_attitude', 'service_parking_convenience', 'service_serving_speed', +# 'price_level', 'price_cost_effective', 'price_discount', 'environment_decoration', 'environment_noise'] + +label_names = ['标题', '选题角度与价值','文献综述归纳总结情况','论文工作量','是否掌握基础(专业)知识','是否具备科研能力','格式规范','行文表达','逻辑性','研究方法','研究结论','创新性及论文价值','理论深度','学术端正性'] #a b c d e f g h u j k l + +#assert len(label_names) == 12 + +# Default word tokens +PAD_token = 0 # Used for padding short sentences +SOS_token = 1 # Start-of-sentence token +EOS_token = 2 # End-of-sentence token +UNK_token = 3 + +train_path='data/train/train_data.csv' +test_path='data/test/test_data.csv' +dev_path='data/valid/val_data.csv' +bert_path='./chinese_wwm_pytorch' +pad_size = 500 # 每段评语处理成的长度(短填长切) +sentence_pad_size=100 #每句话处理成的长度(短填长切) +tokenizer = BertTokenizer.from_pretrained(bert_path) +hidden_size = 768 diff --git a/config2.py b/config2.py new file mode 100644 index 0000000000000000000000000000000000000000..1cea1cff12c9371d1f0ab5579efae5a5d47a0232 --- /dev/null +++ b/config2.py @@ -0,0 +1,76 @@ +import torch +from transformers import BertTokenizer + +device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") +#device = torch.device("cpu") + +# Configure training/optimization +learning_rate = 5e-5 #0.002 +min_word_freq = 3 +print_every = 100 +chunk_size =8 #100 这个是batchsize + + +num_labels = 20 +num_classes = 4 # number of sentimental types + +# num_labels = 12 +# num_classes =3 # number of sentimental types + + +save_folder = 'models' + +# Configure models +start_epoch = 0 +epochs = 150 +hidden_size = 768 #800 +encoder_n_layers = 12 #1 +dropout = 0.1 +batch_first = False + +filter_sizes = (2, 3, 4) +train_folder = 'data/ai_challenger_sentiment_analysis_trainingset_20180816' +valid_folder = 'data/ai_challenger_sentiment_analysis_validationset_20180816' +test_a_folder = 'data/ai_challenger_sentiment_analysis_testa_20180816' + +train_filename = 'sentiment_analysis_trainingset.csv' +valid_filename = 'sentiment_analysis_validationset.csv' +test_a_filename = 'sentiment_analysis_testa2.csv' +'''自定义训练数据''' +# train_folder = 'data/train' +# valid_folder = 'data/valid' +# test_a_folder = 'data/test' +# +# train_filename = 'train_data.csv' +# valid_filename = 'val_data.csv' +# test_a_filename = 'test_data.csv' + +label_names = ['location_traffic_convenience', 'location_distance_from_business_district', 'location_easy_to_find', + 'service_wait_time', 'service_waiters_attitude', 'service_parking_convenience', 'service_serving_speed', + 'price_level', 'price_cost_effective', 'price_discount', 'environment_decoration', 'environment_noise', + 'environment_space', 'environment_cleaness', 'dish_portion', 'dish_taste', 'dish_look', + 'dish_recommendation', + 'others_overall_experience', 'others_willing_to_consume_again'] +# label_names = ['1', '2', '3', +# '4', '5', '6', '7', +# '8', '9', '10', '11', '12'] + + +# label_names = ['location_traffic_convenience', 'location_distance_from_business_district', 'location_easy_to_find', +# 'service_wait_time', 'service_waiters_attitude', 'service_parking_convenience', 'service_serving_speed', +# 'price_level', 'price_cost_effective', 'price_discount', 'environment_decoration', 'environment_noise'] +#assert len(label_names) == 12 + +# Default word tokens +PAD_token = 0 # Used for padding short sentences +SOS_token = 1 # Start-of-sentence token +EOS_token = 2 # End-of-sentence token +UNK_token = 3 + +train_path='data/train/train_data.csv' +test_path='data/test/test_data.csv' +dev_path='data/valid/val_data.csv' +bert_path='./chinese_wwm_pytorch' +pad_size = 500 # 每句话处理成的长度(短填长切) +tokenizer = BertTokenizer.from_pretrained(bert_path) +hidden_size = 768 diff --git a/data/README.txt b/data/README.txt new file mode 100644 index 0000000000000000000000000000000000000000..01c89fc2e864eaf1a32669389696829031cbdba2 --- /dev/null +++ b/data/README.txt @@ -0,0 +1,2 @@ +sentiment_analysis_testa.csv 为测试集A数据文件,共15000条评论数据 +protocol.txt 为数据集下载协议 diff --git a/data/WORDMAP.json b/data/WORDMAP.json new file mode 100644 index 0000000000000000000000000000000000000000..b659281eb9179af75d96532079ab4774c8e4b519 --- /dev/null +++ b/data/WORDMAP.json @@ -0,0 +1,2367 @@ +{ + "\u8bba\u6587": 4, + "\u4ece": 5, + "\u5b58\u8d27": 6, + "\u5185\u90e8": 7, + "\u63a7\u5236": 8, + "\u7684": 9, + "\u4e94": 10, + "\uff0c": 11, + "\u770b": 12, + " ": 13, + "\u8d85\u5e02": 14, + "\u6574\u4f53": 15, + "\u73b0\u72b6": 16, + "\u53d1\u73b0": 17, + "\u5176": 18, + "\u5404": 19, + "\u5b58\u5728": 20, + "\u95ee\u9898": 21, + "\u5e76": 22, + "\u5bf9": 23, + "\u539f\u56e0": 24, + "\u8fdb\u884c": 25, + "\u5206\u6790": 26, + "\u7ed3\u5408": 27, + "\u73af\u8282": 28, + "\u5173\u952e": 29, + "\u98ce\u9669": 30, + "\u70b9": 31, + "\u3001": 32, + "\u63d0\u51fa": 33, + "\u5177\u4f53": 34, + "\u6539\u8fdb": 35, + "\u5efa\u8bae": 36, + "\u3002": 37, + "\n": 38, + "\u5206\u7c7b": 39, + "\u89d2\u5ea6": 40, + "\u53bb": 41, + "\u91cd\u70b9": 42, + "\u9009\u9898": 43, + "\u6070\u5f53": 44, + "\u7ed3\u6784\u5408\u7406": 45, + "\u8bba\u8ff0": 46, + "\u6e05\u6670": 47, + "\u5199\u4f5c": 48, + "\u89c4\u8303": 49, + "\u8fbe\u5230": 50, + "\u7855\u58eb": 51, + "\u6bd5\u4e1a": 52, + "\u6c34\u5e73": 53, + "\u603b\u7ed3": 54, + "\u4e86": 55, + "*": 56, + "ST": 57, + "\u7c7b": 58, + "\u4f01\u4e1a": 59, + "\u60c5\u51b5": 60, + "\u5168\u9762": 61, + "\u68b3\u7406": 62, + "\u88ab": 63, + "\u5728": 64, + "\u8fc7\u7a0b": 65, + "\u4e2d": 66, + "\u9010\u6e10": 67, + "\uff1b": 68, + "\u91c7\u53d6": 69, + "\u591a\u79cd": 70, + "\u8d22\u52a1": 71, + "\u624b\u6bb5": 72, + "\u4ecd": 73, + "\u672a": 74, + "\u4f7f": 75, + "\u540e": 76, + "\u91cd\u6574": 77, + "\u91c7\u7528": 78, + "\u4ee5": 79, + "\u5e02\u573a": 80, + "\u4e3a": 81, + "\u884c\u4e1a": 82, + "\u4ef7\u503c": 83, + "\u8d44\u4ea7": 84, + "\u7f6e": 85, + "\u51fa": 86, + "\u548c": 87, + "\u4ee5\u53ca": 88, + "\u503a\u8f6c\u80a1": 89, + "\u7b49": 90, + "\u6210\u529f": 91, + "\u6700\u540e": 92, + "\u5229\u76ca": 93, + "\u53ca": 94, + "\u6548\u5e94": 95, + "\u5f71\u54cd": 96, + "\u51fa\u53d1": 97, + "\u8bc4\u4ef7": 98, + "\u7ecf\u6d4e": 99, + "\u8fd0\u7528": 100, + "\u4e8b\u4ef6": 101, + "\u7814\u7a76\u6cd5": 102, + "\u524d\u540e": 103, + "\u53cd\u5e94": 104, + "\u8fd9": 105, + "\u4e00\u7cfb\u5217": 106, + "\u884c\u4e3a": 107, + "\u90fd": 108, + "\u901a\u8fc7": 109, + "\u7814\u7a76": 110, + "\u53ef\u4ee5": 111, + "\u8d44\u672c": 112, + "\u63d0\u4f9b": 113, + "\u501f\u9274": 114, + "\u7ed3\u6784": 115, + "\u8f83": 116, + "\u5408\u7406": 117, + "\u903b\u8f91": 118, + "\u4e25\u5bc6": 119, + "\u5e7f\u6cdb": 120, + "\u9605\u8bfb": 121, + "\u76f8\u5173": 122, + "\u6587\u732e": 123, + "\u5de5\u4f5c\u91cf": 124, + "\u9971\u6ee1": 125, + "\u7b26\u5408": 126, + "\u7855\u58eb\u8bba\u6587": 127, + "\u8981\u6c42": 128, + "\u8be5": 129, + "\u4e3b\u8981": 130, + "\u5de5\u4f5c": 131, + "\u5982\u4e0b": 132, + "\uff1a": 133, + "1": 134, + "\u9488\u5bf9": 135, + "\u578b": 136, + "\u7f51": 137, + "\u9006\u53d8\u5668": 138, + "\u8c10\u632f": 139, + "\u5904": 140, + "\u7535\u5bb9": 141, + "\u7535\u6d41": 142, + "\u53cd\u9988": 143, + "\u4e0e": 144, + "\u53cc": 145, + "\u6709\u6e90": 146, + "\u963b\u5c3c": 147, + "\u6cd5": 148, + "\u6291\u5236": 149, + "\u524d": 150, + "\u7ea7": 151, + "\u7535\u538b": 152, + "\u6ce2\u52a8": 153, + "\u52a0\u5165": 154, + "PI": 155, + "\u57fa\u4e8e": 156, + "\u4ee3\u8868": 157, + "\u4f20\u7edf": 158, + "\u63a7\u5236\u7b56\u7565": 159, + "2": 160, + "\u7cfb\u7edf": 161, + "\u975e\u7ebf\u6027": 162, + "\u81ea\u6297\u6270": 163, + "\u7b97\u6cd5": 164, + "\u5f85": 165, + "\u53c2\u6570": 166, + "\u591a": 167, + "\u7ebf\u6027": 168, + "\u63a7\u5236\u7b97\u6cd5": 169, + "\uff08": 170, + "\uff09": 171, + "\u63a8\u5bfc": 172, + "3": 173, + "\u5c06": 174, + "\u81ea": 175, + "\u63a7\u5236\u6280\u672f": 176, + "\u8bbe\u8ba1": 177, + "\u63a7\u5236\u5668": 178, + "\u6765\u6e90\u4e8e": 179, + "\u5b9e\u8df5": 180, + "\u6709": 181, + "\u4e00\u5b9a": 182, + "\u5b9e\u9645": 183, + "\u4f7f\u7528": 184, + "\u5f52\u7eb3": 185, + "\u6280\u672f": 186, + "\u65b9\u9762": 187, + "\u5177\u6709": 188, + "\u65b0\u9896\u6027": 189, + "\u6240": 190, + "\u65b9\u6cd5": 191, + "\u5b9e\u7528\u6027": 192, + "\u56fe\u8868": 193, + "\u5c42\u6b21\u5206\u660e": 194, + "\u6587\u5b57": 195, + "\u901a\u987a": 196, + "\u8bf4\u660e": 197, + "\u8be5\u751f": 198, + "\u624e\u5b9e": 199, + "\u7406\u8bba": 200, + "\u57fa\u7840": 201, + "\u5f3a": 202, + "\u79d1\u7814": 203, + "\u80fd\u529b": 204, + "\u4e13\u4e1a": 205, + "\u6c34\u51c6": 206, + "\u540c\u610f": 207, + "\u7b54\u8fa9": 208, + "\u6211\u56fd": 209, + "\u7535\u7f51": 210, + "\u5206\u5e03": 211, + "\u8f93\u7535": 212, + "\u7ebf\u8def": 213, + "\u5bb9\u6613": 214, + "\u906d\u53d7": 215, + "\u5371\u5bb3": 216, + "\u914d\u7535": 217, + "\u4f5c\u7528": 218, + "\u7531\u4e8e": 219, + "\u9020\u6210": 220, + "\u4e8b\u6545": 221, + "\u9ad8": 222, + "\u5de6\u53f3": 223, + "\u4e25\u91cd": 224, + "\u4f9b\u7535": 225, + "\u53ef\u9760\u6027": 226, + "\u6240\u4ee5": 227, + "\u91cd\u8981": 228, + "\u610f\u4e49": 229, + "\u5efa\u7acb": 230, + "\u6570\u5b66\u6a21\u578b": 231, + "\u4e24": 232, + "\u5f97\u51fa": 233, + "\u63aa\u65bd": 234, + "\u73b0\u5b9e\u610f\u4e49": 235, + "\u7814\u7a76\u6210\u679c": 236, + "\u5e94\u7528": 237, + "\u7ed3\u679c\u8868\u660e": 238, + "\u4f5c\u8005": 239, + "\u638c\u63e1": 240, + "\u4e13\u4e1a\u77e5\u8bc6": 241, + "\u4ece\u4e8b": 242, + "\u79d1\u7814\u5de5\u4f5c": 243, + "\u7b26\u5408\u89c4\u8303": 244, + "\u8bed\u53e5": 245, + "\u57fa\u672c": 246, + "\u8ba4\u771f": 247, + "\u4fee\u6539": 248, + "\u53c2\u52a0": 249, + "\u914d\u7535\u7f51": 250, + "\u968f\u7740": 251, + "\u8d1f\u8377": 252, + "\u4e0d\u65ad": 253, + "\u589e\u5927": 254, + "\u5f00\u5173\u67dc": 255, + "\u8bbe\u5907": 256, + "\u6570\u91cf": 257, + "\u589e\u52a0": 258, + "\u662f": 259, + "\u7edd\u7f18": 260, + "\u56e0\u6b64": 261, + "\u8d85\u58f0\u6ce2": 262, + "\u5730": 263, + "\u68c0\u6d4b": 264, + "\u5c40\u90e8": 265, + "\u653e\u7535": 266, + "\u539f\u7406": 267, + "\u53ca\u5176": 268, + "\u5b9e\u73b0": 269, + "\u4ecb\u7ecd": 270, + "\u5982\u4f55": 271, + "\u5229\u7528": 272, + "\u67d0": 273, + "\u4e8c\u7ef4": 274, + "\u6709\u9650\u5143": 275, + "\u7535\u573a": 276, + "\u6a21\u578b": 277, + "\u627e\u51fa": 278, + "\u89c2\u6d4b": 279, + "\u51fa\u73b0": 280, + "\u8fc7": 281, + "\u6848\u4f8b": 282, + "\u5224\u65ad": 283, + "\u6545\u969c": 284, + "\u7c7b\u578b": 285, + "\u8d77\u5230": 286, + "\u53cd\u6620": 287, + "\u7814\u7a76\u751f": 288, + "\u57fa\u7840\u77e5\u8bc6": 289, + "\u690d\u4fdd": 290, + "\u673a\u68b0": 291, + "\u55b7\u836f": 292, + "\u6548\u7387": 293, + "\u4f4e": 294, + "\u6548\u679c": 295, + "\u5dee": 296, + "\u673a": 297, + "\u836f\u6db2": 298, + "\u6d41\u91cf": 299, + "\u76d1\u63a7": 300, + "\u7cbe\u51c6": 301, + "\u63a7\u5236\u7cfb\u7edf": 302, + "\u9700\u6c42": 303, + "\u65b9\u6848": 304, + "\u9009\u7528": 305, + "-": 306, + "\u4f5c\u4e3a": 307, + "\u5d4c\u5165\u5f0f": 308, + "\u8f6f\u4ef6": 309, + "\u5f00\u53d1": 310, + "\u73af\u5883": 311, + "\u5b8c\u6210": 312, + "\u901a\u4fe1": 313, + "\u6a21\u7cca": 314, + "PID": 315, + "\u529f\u80fd\u6a21\u5757": 316, + "\u7f16\u5199": 317, + "\u4e0b": 318, + "\u6d4b\u8bd5": 319, + "\u529f\u80fd": 320, + "\u6b63\u5e38": 321, + "\u4e0d\u540c": 322, + "\u5de5\u51b5": 323, + "\u6027\u80fd": 324, + "\u597d": 325, + "\u6761\u7406": 326, + "\u6bd4\u8f83\u6e05\u695a": 327, + "\u6b63\u786e": 328, + "\u53d6\u5f97": 329, + ",": 330, + "\u8868\u660e": 331, + "\u57fa\u7840\u7406\u8bba": 332, + "\u7f16\u7a0b": 333, + "\u8f83\u5f3a": 334, + "\u8bba\u6587\u7b54\u8fa9": 335, + "\u9009\u62e9": 336, + "\u6c22": 337, + "\u975e\u6676": 338, + "\u5408\u91d1": 339, + "\u529b\u5b66\u6027\u80fd": 340, + "\u5bf9\u8c61": 341, + "\u6df1\u5165": 342, + "\u4e86\u89e3": 343, + "\u5fae\u89c2": 344, + "Zr": 345, + "\u57fa": 346, + "\u5757\u4f53": 347, + "\u7b49\u79bb\u5b50": 348, + "\u7535\u5f27": 349, + "\u5236\u5907": 350, + "\u542b\u91cf": 351, + "\u4e09\u79cd": 352, + "\u5178\u578b": 353, + "\u7eb3\u7c73": 354, + "\u53d8\u5f62": 355, + "\u5ba4\u6e29": 356, + "\u9ad8\u6e29": 357, + "\u538b\u7f29": 358, + "\u89c4\u5f8b": 359, + "\u4ea7\u751f": 360, + "\u5f97\u5230": 361, + "\u4e00\u4e9b": 362, + "\u7ed3\u8bba": 363, + "\u672c\u5b66\u79d1": 364, + "\u51c6\u786e": 365, + "\u9002\u5f53": 366, + "\u8868\u5f81": 367, + "\u6dfb\u52a0": 368, + "\u8868\u73b0": 369, + "\u6db2\u76f8": 370, + "\u533a": 371, + "\u5bbd\u5ea6": 372, + "\u51e0\u4e2a": 373, + "\u6027\u8d28": 374, + "\u521b\u65b0\u6027": 375, + "\u6d41\u7545": 376, + "\u8868\u8ff0": 377, + "\u4e25\u8c28": 378, + "\u672c": 379, + "Mg": 380, + "(": 381, + "+": 382, + "0.5": 383, + "x": 384, + ")": 385, + "Y": 386, + "\u7cfb": 387, + "\u70ed\u88c2": 388, + "\u654f\u611f\u6027": 389, + "\u9884\u6d4b": 390, + "\u6536\u96c6": 391, + "\u4e24\u79cd": 392, + "\u51dd\u56fa": 393, + "\u5e76\u4e14": 394, + "\u8def\u5f84": 395, + "\u56fa\u76f8": 396, + "\u5206\u6570": 397, + "\u6e29\u5ea6": 398, + "\u533a\u57df": 399, + "\u8303\u56f4": 400, + "\u7279\u5f81": 401, + "\u540c\u65f6": 402, + "\u76f8": 403, + "\u56e0\u7d20": 404, + "\u5e94\u529b": 405, + "\u8f83\u4e3a": 406, + "\u903b\u8f91\u6027": 407, + "\u80fd\u591f": 408, + "\u89e3\u51b3\u95ee\u9898": 409, + "\u4e00\u7bc7": 410, + "\u4f18\u79c0": 411, + "\u7855\u58eb\u5b66\u4f4d": 412, + "\u94f6\u884c": 413, + "\u5f53\u524d": 414, + "\u4e00\u4e2a": 415, + "\u6bd4\u8f83": 416, + "\u53d1\u5c55": 417, + "\u5065\u5eb7": 418, + "\u5b9e\u8bc1": 419, + "\u9700\u8981": 420, + "\u6587\u7ae0": 421, + "\u4e5f": 422, + "\u7a0b\u5ea6": 423, + "\u4e0a": 424, + "\u4f53\u73b0": 425, + "\u5bf9\u672c": 426, + "\u9886\u57df": 427, + "\u5b66\u79d1": 428, + "\u57fa\u672c\u77e5\u8bc6": 429, + "\u73b0\u5b9e": 430, + "\u6570\u636e": 431, + "\u5904\u7406": 432, + "\u4f46\u662f": 433, + "\u89c4\u8303\u6027": 434, + "\u5b66\u672f": 435, + "\u4e25\u8c28\u6027": 436, + "\u8fd8": 437, + "\u8fdb\u4e00\u6b65": 438, + "\u8be6\u7ec6": 439, + "\u610f\u89c1": 440, + "\u4e0d\u8db3": 441, + "\u65b0": 442, + "\u300a": 443, + "\u300b": 444, + "\u56fd\u5bb6": 445, + "\u5c42\u9762": 446, + "\u8d8a\u6765\u8d8a": 447, + "\u91cd\u89c6": 448, + "\u7ee9\u6548\u8bc4\u4ef7": 449, + "\u591a\u4e2a": 450, + "\u5173\u4e8e": 451, + "\u73af\u5883\u4fdd\u62a4": 452, + "\u5f00\u59cb": 453, + "\u666e\u904d": 454, + "\u5173\u6ce8": 455, + "\u4e3a\u4e86": 456, + "\u63d0\u9ad8": 457, + "\u8d28\u91cf": 458, + "\u5927\u91cf": 459, + "\u4e13\u9879\u8d44\u91d1": 460, + "\u5236\u5b9a": 461, + "\u4e00\u5957": 462, + "\u6709\u6548": 463, + "\u663e\u5f97": 464, + "\u201c": 465, + "MD": 466, + "\u68ee\u5de5": 467, + "\u516c\u53f8": 468, + "\u4fdd\u62a4": 469, + "\u5de5\u7a0b": 470, + "\u201d": 471, + "\u8c03\u67e5": 472, + "\u56fd\u5185\u5916": 473, + "\u6982\u5ff5": 474, + "\u754c\u5b9a": 475, + "\u6307\u6807\u4f53\u7cfb": 476, + "\u4f53\u7cfb": 477, + "\u4fdd\u969c": 478, + "\u575a\u5b9e": 479, + "\u5b66\u79d1\u77e5\u8bc6": 480, + "\u5177\u5907": 481, + "\u72ec\u7acb": 482, + "\u79d1\u5b66\u7814\u7a76": 483, + "\u673a\u6784": 484, + "\u6218\u7565": 485, + "\u4e00\u6587": 486, + "\u4e4b\u95f4": 487, + "\u5173\u7cfb": 488, + "2017": 489, + "\u5e74": 490, + "\u9009\u53d6": 491, + "\u7535\u5b50": 492, + "\u4e09\u4e2a": 493, + "\u5bf9\u4e8e": 494, + "\u663e\u793a": 495, + "\u8bba\u8bc1": 496, + "\u6c38\u78c1": 497, + "\u540c\u6b65\u7535\u673a": 498, + "\u975e\u5e38": 499, + "\u672c\u6587": 500, + "\u516d\u76f8": 501, + "PMSM": 502, + "\u8f6c\u6362": 503, + "\u8026": 504, + "\u5750\u6807\u7cfb": 505, + "\u78c1\u573a": 506, + "\u5b9a\u5411": 507, + "MATLAB": 508, + "/": 509, + "Simulink": 510, + "\u642d\u5efa": 511, + "\u4eff\u771f": 512, + "\u9a8c\u8bc1": 513, + "\u5176\u6b21": 514, + "\u5b9a\u5b50": 515, + "\u7ed5\u7ec4": 516, + "\u65f6": 517, + "\u975e": 518, + "\u6b63\u4ea4": 519, + "\u79cd": 520, + "\u5207\u6362": 521, + "\u5230": 522, + "\u8865\u507f": 523, + "\u5b9e\u9a8c": 524, + "\u518d\u6b21": 525, + "\u6ed1": 526, + "\u5f15\u5165": 527, + "\u65b0\u578b": 528, + "\u6ed1\u6a21": 529, + "\u901f\u5ea6": 530, + "\u9a71\u52a8": 531, + "\u6a21\u5757": 532, + "PWM": 533, + "\u4f5c\u51fa": 534, + "\u8868\u8fbe": 535, + "\u6846\u67b6": 536, + "\u4f46": 537, + "\u4e0d": 538, + "\u7a81\u51fa": 539, + "\u5c0f": 540, + "\u6ce2\u5305": 541, + "\u53d8\u6362": 542, + "\u9707\u52a8": 543, + "\u7279\u6027": 544, + "\u7a0b": 545, + "\u7a7a\u95f4": 546, + "\u76f8\u5173\u6027": 547, + "\u6a21\u62df": 548, + "\u573a": 549, + "\u5c55\u5f00": 550, + "\u7406\u8bba\u610f\u4e49": 551, + "\u65f6\u53d8": 552, + "\u529f\u7387": 553, + "\u5b9e\u6d4b": 554, + "\u8bb0\u5f55": 555, + "\u5e73\u53f0": 556, + "\u6027": 557, + "\u91cd\u6784": 558, + "\u4e00\u79cd": 559, + "\u76ee\u6807": 560, + "\u52a0\u901f\u5ea6": 561, + "\u7b97\u4f8b": 562, + "\u6b63\u786e\u6027": 563, + "\u8f93\u5165": 564, + "\u5386\u53f2": 565, + "\u5206\u89e3": 566, + "\u5206": 567, + "\u4fe1\u53f7": 568, + "\u8c03\u6574": 569, + "\u518d": 570, + "\u6210\u679c": 571, + "\u5b9e\u4f8b": 572, + "\u8ba1\u7b97": 573, + "\u77e5\u8bc6": 574, + "4": 575, + "\u4e00\u822c": 576, + "\u6d77\u6d0b": 577, + "\u6cb9\u6c14": 578, + "\u8d44\u6e90": 579, + "\u5171\u540c\u5f00\u53d1": 580, + "\u5165\u624b": 581, + "\u9610\u8ff0": 582, + "\u53d9\u8ff0": 583, + "\u56fd\u9645": 584, + "\u793e\u4f1a": 585, + "\u7acb\u6cd5": 586, + "\u73b0\u6709": 587, + "\u56fd\u5916": 588, + "\u5305\u62ec": 589, + "\u77f3\u6cb9": 590, + "\u5236\u5ea6": 591, + "\u7ecf\u9a8c": 592, + "\u6cd5\u5f8b": 593, + "\u5b8c\u5584": 594, + "\u5168\u6587": 595, + "\u6e05\u695a": 596, + "\u8d44\u6599": 597, + "\u4e30\u5bcc": 598, + "\u4e0d\u5c11": 599, + "\u5408\u683c": 600, + "\u6bd5\u4e1a\u8bba\u6587": 601, + "\u6fc0\u5149": 602, + "\u4fe1\u9053": 603, + "\u7f16\u7801": 604, + "\u8c03\u5236": 605, + "\u77e9\u9635": 606, + "\u6784\u9020": 607, + "\u8f6f": 608, + "\u5b9e\u7269": 609, + "\u524d\u666f": 610, + "\u80e1\u4e54\u6728": 611, + "\u4e0d\u4ec5": 612, + "\u9a6c\u514b\u601d\u4e3b\u4e49": 613, + "\u601d\u60f3": 614, + "\u6587\u5316": 615, + "\u5ba3\u4f20": 616, + "\u76ee\u524d": 617, + "\u5f88\u591a": 618, + "\u96c6\u4e2d": 619, + "\u6216": 620, + "\u6bdb\u6cfd\u4e1c\u601d\u60f3": 621, + "\u5ef6\u5b89": 622, + "\u65f6\u671f": 623, + "\u7279\u5b9a": 624, + "\u4e0d\u662f": 625, + "\u5386\u53f2\u80cc\u666f": 626, + "\u601d\u8def": 627, + "\u6761\u4ef6": 628, + "\u8d21\u732e": 629, + "\u9996\u5148": 630, + "\u80cc\u666f": 631, + "\u5185\u5bb9": 632, + "\u5b9e\u8df5\u6027": 633, + "\u89c2\u70b9": 634, + "\u7ed3\u6784\u8bbe\u8ba1": 635, + "\u5c42\u6b21": 636, + "\u5f15\u6587": 637, + "\u5145\u5206": 638, + "\u5e94": 639, + "\u63d0\u4ea4": 640, + "\u70ed\u7535": 641, + "\u8054\u5408": 642, + "\u7279\u70b9": 643, + "\u8fd0\u884c": 644, + "\u5355\u5143": 645, + "\u5efa\u6a21": 646, + "\u4e0d\u786e\u5b9a\u6027": 647, + "\u65f6\u95f4\u5c3a\u5ea6": 648, + "\u534f\u8c03": 649, + "\u4f18\u5316": 650, + "\u80fd\u91cf": 651, + "\u7ba1\u7406": 652, + "\u5f00\u5c55": 653, + "\u673a\u7ec4": 654, + "\u53d1\u7535": 655, + "\u5305\u542b": 656, + "\u7ed9": 657, + "\u5236": 658, + "\u968f": 659, + "\u8d1f\u8f7d": 660, + "\u7387": 661, + "\u53d8\u5316": 662, + "\u533a\u95f4": 663, + "\u5bf9\u7cfb\u7edf": 664, + "\u4e4b\u524d": 665, + "\u8003\u8651": 666, + "\u53ef": 667, + "\u518d\u751f\u80fd\u6e90": 668, + "\u51fa\u529b": 669, + "\u786e\u5b9a": 670, + "\u7075\u654f\u5ea6": 671, + "\u5316": 672, + "\u8c03\u5ea6": 673, + "\u8f6c\u5316": 674, + "\u4e24\u4e2a": 675, + "\u6df7\u5408": 676, + "\u6c42\u89e3": 677, + "\u5b9e\u65f6": 678, + "\u9636\u6bb5": 679, + "\u6839\u636e": 680, + "\u5185": 681, + "\u9152\u74f6\u76d6": 682, + "\u5370\u5237": 683, + "\u677f": 684, + "\u7f3a\u9677": 685, + "\u89c6\u89c9": 686, + "\u7f3a\u5931": 687, + "\u673a\u5668": 688, + "\u65b9\u5f0f": 689, + "\u4ee5\u4e0b": 690, + "\u51e0": 691, + ".": 692, + "\u6210\u50cf": 693, + "\u56fe\u50cf\u5904\u7406": 694, + "\u8f6f\u4ef6\u8bbe\u8ba1": 695, + "\u4ece\u800c": 696, + "\u8868\u9762": 697, + "\u5e38\u89c1": 698, + "\u65e2\u6709": 699, + "\u53c8": 700, + "\u64b0\u5199": 701, + "\u6761\u4f8b": 702, + "\u79d1\u6280": 703, + "\u4e8e": 704, + "\u65b0\u80fd\u6e90": 705, + "\u98ce\u673a": 706, + "\u6545\u969c\u8bca\u65ad": 707, + "\u57f9\u517b": 708, + "\u65b9\u5411": 709, + "\u7eea\u8bba": 710, + "\u63cf\u8ff0": 711, + "\u7cbe\u786e": 712, + "\u5b50": 713, + "\u8fa8\u8bc6": 714, + "K": 715, + "L": 716, + "\u98ce\u7535": 717, + "\u4e88\u4ee5": 718, + "\u72b6\u6001": 719, + "\u8bc4\u4f30": 720, + "\u6df1\u523b": 721, + "\u8ba4\u8bc6": 722, + "\u5b8c\u6574": 723, + "\u8bed\u8a00": 724, + "\u78f7\u9178": 725, + "\u8f9b\u916f": 726, + "\u5408\u6210": 727, + "\u5de5\u4e1a": 728, + "\u3000": 729, + "\u4e09": 730, + "\u539f\u6599": 731, + "\u50ac\u5316\u5242": 732, + "\u7ecf\u8fc7": 733, + "\u5148": 734, + "\u90e8\u5206": 735, + "\u916f\u5316": 736, + "\u4ea7\u7269": 737, + "\u5de5\u827a": 738, + "\u7b80\u5355": 739, + "\u53ef\u63a7": 740, + "\u76f8\u5bf9": 741, + "\u8bba\u636e": 742, + "\u53ef\u9760": 743, + "\u53ef\u4fe1": 744, + "\u6761\u7406\u6e05\u6670": 745, + "\u7ed3\u679c": 746, + "\u53c2\u8003\u4ef7\u503c": 747, + "\u5df2\u7ecf": 748, + "\u7533\u8bf7": 749, + "\u7ec4\u7ec7": 750, + "\u7535\u8def": 751, + "\u78c1": 752, + "\u6574\u6d41": 753, + "\u5f62\u6210": 754, + "\u6700\u7ec8": 755, + "\u5bbd": 756, + "\u8f6c\u901f": 757, + "\u8f93\u51fa": 758, + "\u8f83\u5927": 759, + "\u5b9e\u7528\u4ef7\u503c": 760, + "\u52a8\u6001": 761, + "\u660e\u786e": 762, + "\u7535\u673a": 763, + "\u505a": 764, + "\u6761\u7406\u6e05\u695a": 765, + "\u8868\u8fbe\u80fd\u529b": 766, + "\u4ece\u6587\u4e2d": 767, + "\u770b\u51fa": 768, + "\u7b14\u8005": 769, + "\u8bfe\u9898": 770, + "\u7406\u8bba\u77e5\u8bc6": 771, + "\u7ed3\u5408\u5b9e\u9645": 772, + "\u67e5\u9605": 773, + "\u6587\u732e\u8d44\u6599": 774, + "\u9759\u6001": 775, + "\u8fd0\u52a8": 776, + "\u63d0\u53d6": 777, + "\u8ddf\u8e2a": 778, + "\u8def\u7ebf": 779, + "\u8bba\u6587\u683c\u5f0f": 780, + "\u79bb": 781, + "\u8f74\u5f0f": 782, + "\u5207\u5272": 783, + "\u8bd5\u9a8c": 784, + "\u7efc\u5408": 785, + "\u8981": 786, + "\u76ee\u7684": 787, + "\u7efc\u8ff0": 788, + "\u7f3a\u4e4f": 789, + "\u9002\u7528": 790, + "\u6d41\u4f53": 791, + "\u52a8\u529b\u5b66": 792, + "\u8f74": 793, + "\u8fd9\u4e9b": 794, + "\u5bf9\u6bd4": 795, + "\u5355": 796, + "\u5206\u522b": 797, + "\u8f85\u52a9": 798, + "\u96be\u6613": 799, + "\u6d89\u53ca": 800, + "\u52b1\u78c1": 801, + "\u76f4\u7ebf": 802, + "\u60ac\u6d6e": 803, + "\u540c\u6b65": 804, + "\u7535\u52a8\u673a": 805, + "\u673a\u7406": 806, + "\u78c1\u60ac\u6d6e": 807, + "\u795e\u7ecf\u7f51\u7edc": 808, + "\u7f51\u7edc": 809, + "\u89c4\u6a21": 810, + "\u5f62\u5f0f": 811, + "\u4e09\u5c42": 812, + "BP": 813, + "\u5b66\u4e60": 814, + "\u6539\u5584": 815, + "\u4e3b\u52a8": 816, + "\u8f74\u627f": 817, + "\u8f6c\u5b50": 818, + "\u632f\u52a8": 819, + "\u6b64\u57fa\u7840": 820, + "\u91cd\u590d": 821, + "\u76f8\u7ed3\u5408": 822, + "\u590d\u5408": 823, + "\u63d0": 824, + "\u7b56\u7565": 825, + "\u76f8\u5e94": 826, + "\u6838\u5fc3": 827, + "\u6570\u5b57": 828, + "\u826f\u597d": 829, + "\u7535\u6c14\u5de5\u7a0b": 830, + "\u8c03\u7814": 831, + "\u6d3b\u6027": 832, + "\u521d\u6b65": 833, + "\u4e00": 834, + "\u671f\u95f4": 835, + "\u53d1\u8868": 836, + "8": 837, + "\u7bc7": 838, + "\u4e00\u9879": 839, + "\u56de\u5f52": 840, + "\u65f6\u6548": 841, + "7075": 842, + "\u70ed\u5904\u7406": 843, + "\u5e38\u6e29": 844, + "\u4f4e\u6e29": 845, + "\u51b2\u51fb": 846, + "\u7528": 847, + "\u5148\u8fdb": 848, + "\u65ad\u53e3": 849, + "\u89c2\u5bdf": 850, + "\u6d4b\u91cf": 851, + "\u6240\u5f97": 852, + "\u540c\u7c7b": 853, + "\u53c2\u8003": 854, + "\u6240\u5b66": 855, + "\u89e3\u91ca": 856, + "\u79d1\u5b66": 857, + "\u73b0\u8c61": 858, + "\u9519\u8bef": 859, + "\u603b\u4f53": 860, + "\u66f4\u52a0": 861, + "\u591a\u6e90": 862, + "\u5fae\u7f51": 863, + "\u80fd\u6e90": 864, + "\u6784\u5efa": 865, + "\u4f20\u8f93": 866, + "\u8def\u7531": 867, + "\u62d3\u6251": 868, + "\u5206\u914d": 869, + "\u667a\u80fd": 870, + "\u4f53": 871, + "\u7fa4": 872, + "\u6709\u6548\u6027": 873, + "\u7406\u8bba\u4f9d\u636e": 874, + "\u53ef\u884c": 875, + "\u4eba\u4f53": 876, + "\u4e0a\u80a2": 877, + "\u808c\u8089": 878, + "\u529b": 879, + "\u8bad\u7ec3": 880, + "\u9488\u5bf9\u6027": 881, + "\u5b9e\u9645\u610f\u4e49": 882, + "\u51c6\u786e\u6027": 883, + "\u89e3\u51b3": 884, + "\u5f88": 885, + "\u9c81\u68d2\u6027": 886, + "\u80fd": 887, + "\u53cd\u63a8": 888, + "\u6765": 889, + "PMLSM": 890, + "\u77e2\u91cf": 891, + "\u4f4d\u7f6e": 892, + "\u660e\u663e\u63d0\u9ad8": 893, + "\u9002\u5e94": 894, + "\u5f84\u5411": 895, + "\u4ea7\u54c1": 896, + "\u88c5\u914d": 897, + "\u4f5c\u4e1a": 898, + "\u5236\u9020": 899, + "\u6210\u672c": 900, + "\u5360": 901, + "\u6bd4": 902, + "\u751f\u4ea7": 903, + "\u5468\u671f": 904, + "\u5fc5\u8981": 905, + "\u4eba": 906, + "\u56e0": 907, + "\u52a0\u5de5": 908, + "\u4e2d\u5fc3": 909, + "\u5916": 910, + "\u8212\u9002\u5ea6": 911, + "\u5f88\u5f3a": 912, + "\u7c7b\u4f3c": 913, + "\u6280\u672f\u624b\u6bb5": 914, + "\u73b0\u573a": 915, + "\u96f6\u90e8\u4ef6": 916, + "\u64cd\u4f5c": 917, + "\u4eba\u5458": 918, + "\u52a8\u4f5c": 919, + "\u521b\u5efa": 920, + "\u8ddd\u79bb": 921, + "\u9ad8\u5ea6": 922, + "\u5206\u7ea7": 923, + "\u91c7\u96c6": 924, + "\u6d41\u7a0b": 925, + "\u7535\u4fe1\u53f7": 926, + "\u7b49\u7ea7": 927, + "\u5212\u5206": 928, + "\u96be\u5ea6": 929, + "\u5927": 930, + "\u6307\u6570": 931, + "\u91cd\u65b0": 932, + "\u75b2\u52b3": 933, + "\u6837\u672c": 934, + "\u71b5": 935, + "\u505a\u51fa": 936, + "\u62c5\u8d1f": 937, + "\u4e13\u95e8": 938, + "\u683c\u5f0f": 939, + "\u5b66\u4f4d": 940, + "\u89c4\u5b9a": 941, + "\u5b66\u8005": 942, + "\u9884\u8b66": 943, + "\u6982\u8ff0": 944, + "BC": 945, + "\u623f\u5730\u4ea7": 946, + "\u72b6\u51b5": 947, + "\u7cfb\u7edf\u6027": 948, + "\u5173\u8054": 949, + "\u6cd5\u5bf9": 950, + "\u8d22\u52a1\u6307\u6807": 951, + "\u5171\u540c": 952, + "\u6784\u6210": 953, + "\u5206\u6790\u6cd5": 954, + "\u6307\u6807": 955, + "\u6743\u91cd": 956, + "\u7cfb\u6570": 957, + "\u5747": 958, + "\u5bf9\u7b56": 959, + "\u76d1\u7ba1": 960, + "\u52a0\u5f3a": 961, + "\u6295\u8d44": 962, + "\u9879\u76ee": 963, + "\u8425\u8fd0": 964, + "\u6d3b\u52a8": 965, + "\u57ce\u5e02": 966, + "\u4f9d\u6258": 967, + "\u8f7d\u4f53": 968, + "\u592f": 969, + "\u6269\u6869": 970, + "\u6869": 971, + "\u4e09\u7ef4": 972, + "\u8377\u8f7d": 973, + "\u7ec4\u5408": 974, + "\u6570\u503c": 975, + "\u4fa7": 976, + "\u7aef": 977, + "\u603b": 978, + "\u627f\u8f7d\u80fd\u529b": 979, + "\u6269\u6563": 980, + "\u6270\u52a8": 981, + "\u6700\u4f18": 982, + "\u89e3\u6790": 983, + "Zn": 984, + "\u8150\u8680\u6027": 985, + "\u91cf": 986, + "Al": 987, + "\u5143\u7d20": 988, + "\u94f8\u9020": 989, + "\u56db\u79cd": 990, + "\u6210\u5206": 991, + "\u663e\u5fae": 992, + "\u62c9\u4f38": 993, + "\u9541\u5408\u91d1": 994, + "\u7535\u5316\u5b66": 995, + "\u8150\u8680": 996, + "\u9884\u671f": 997, + "\u4e66\u5199": 998, + "\u6807\u51c6": 999, + "\u521b\u65b0": 1000, + "\u89c1\u89e3": 1001, + "\u6709\u5173": 1002, + "\u98ce\u529b": 1003, + "\u53d1\u7535\u673a\u7ec4": 1004, + "\u65e0\u529f": 1005, + "\u53d8\u6d41\u5668": 1006, + "\u56db": 1007, + "\u76f4\u63a5": 1008, + "\u6709\u529f": 1009, + "\u964d\u4f4e": 1010, + "\u8dcc\u843d": 1011, + "\u6700\u5927": 1012, + "\u4fdd\u8bc1": 1013, + "\u5b89\u5168": 1014, + "\u7a33\u5b9a": 1015, + "\u63d0\u5347": 1016, + "\u5269\u4f59": 1017, + "\u5bb9\u91cf": 1018, + "\u76f4\u6d41\u7535": 1019, + "\u76f4\u6d41": 1020, + "\u503c": 1021, + "\u538b": 1022, + "\u5e45\u503c": 1023, + "\u7a33\u5b9a\u6027": 1024, + "\u98ce\u7535\u573a": 1025, + "\u96c6\u7fa4": 1026, + "\u534f\u540c": 1027, + "\u8c03\u9891": 1028, + "\u8c03\u8282": 1029, + "\u5c42": 1030, + "\u50a8\u80fd": 1031, + "\u53c2\u4e0e": 1032, + "\u9891\u7387": 1033, + "\u6587\u4e2d": 1034, + "\u57fa\u672c\u4e0a": 1035, + "\u53d8\u538b\u5668": 1036, + "\u7ebf\u5708": 1037, + "\u4f20\u9012": 1038, + "\u8f74\u5411": 1039, + "\u6db2\u538b": 1040, + "\u5408\u95f8": 1041, + "\u95f4": 1042, + "\u63a5\u89e6": 1043, + "\u6539\u53d8": 1044, + "\u8f7d\u8377": 1045, + "\u5927\u5c0f": 1046, + "\u5faa\u73af": 1047, + "\u6b21\u6570": 1048, + "\u6709\u9650\u5143\u6cd5": 1049, + "\u53d7\u5230": 1050, + "\u53d1\u751f": 1051, + "\u53d1\u7535\u673a": 1052, + "\u65e0": 1053, + "\u4f20\u611f\u5668": 1054, + "\u6709\u76ca": 1055, + "\u63a2\u7d22": 1056, + "\u5df2": 1057, + "\u6ee1\u8db3": 1058, + "\u4f30\u8ba1": 1059, + "\u6240\u63d0": 1060, + "10": 1061, + "\u8bf4\u670d\u529b": 1062, + "\u6b20\u7f3a": 1063, + "\u6c7d\u8f66": 1064, + "\u6709\u9650\u516c\u53f8": 1065, + "\u7814\u5236": 1066, + "\u8f66\u6865": 1067, + "\u7535\u52a8\u6c7d\u8f66": 1068, + "\u7b80\u5316": 1069, + "\u5bff\u547d": 1070, + "\u53d7\u529b": 1071, + "\u4fee\u6b63": 1072, + "\u6750\u6599": 1073, + "S": 1074, + "\u66f2\u7ebf": 1075, + "\u5df2\u6709": 1076, + "\u6210\u719f": 1077, + "\u4f7f\u7528\u5bff\u547d": 1078, + "\u5960\u5b9a": 1079, + "\u8be6\u5c3d": 1080, + "\u53d8\u91cf": 1081, + "\u6b64\u5916": 1082, + "\u8bc1\u660e": 1083, + "\u5408\u7406\u6027": 1084, + "\u7efc\u4e0a\u6240\u8ff0": 1085, + "\u8ba4\u4e3a": 1086, + "\u5b89\u6392": 1087, + "\u7136\u540e": 1088, + "\u8bc4\u5ba1": 1089, + "\u8865\u5145": 1090, + "\u5149\u7ea4": 1091, + "\u6df1\u5165\u7814\u7a76": 1092, + "\u6bcf": 1093, + "\u4e0d\u591f": 1094, + "\u52a8\u624b": 1095, + "\u6545": 1096, + "\u8be5\u6587": 1097, + "\u89c6\u89d2": 1098, + "\u65b0\u9896": 1099, + "\u5f97\u5f53": 1100, + "\u5de5\u5177": 1101, + "\u7fd4\u5b9e": 1102, + "\u6db2": 1103, + "\u751f\u7269": 1104, + "\u7535": 1105, + "\u963b\u6297": 1106, + "\u5206\u6790\u65b9\u6cd5": 1107, + "\u7acb\u9898": 1108, + "\u5b9e\u9a8c\u8bbe\u8ba1": 1109, + "\u4ea4\u53c9": 1110, + "\u9274\u4e8e": 1111, + "\u8fd1\u5e74\u6765": 1112, + "\u8bba\u70b9": 1113, + "\u81ea\u5df1": 1114, + "\u663e\u8457": 1115, + "\u8bc1\u636e": 1116, + "\u8ba4\u5b9a": 1117, + "\u53e6\u5916": 1118, + "\u6ce8\u91ca": 1119, + "\u53c2\u8003\u6587\u732e": 1120, + "\u78c1\u901a": 1121, + "\u70ed": 1122, + "\u78c1\u6781": 1123, + "\u6c38\u78c1\u4f53": 1124, + "\u635f\u8017": 1125, + "\u5f62\u72b6": 1126, + "\u6da1\u6d41\u635f\u8017": 1127, + "\u901a\u98ce": 1128, + "\u6563\u70ed": 1129, + "\u68c0\u5bdf\u673a\u5173": 1130, + "\u63d0\u8d77": 1131, + "\u884c\u653f": 1132, + "\u516c\u76ca": 1133, + "\u8bc9\u8bbc": 1134, + "\u800c": 1135, + "\u4fc3\u8fdb": 1136, + "\u63a2\u8ba8": 1137, + "\u5982": 1138, + "\u7ae0": 1139, + "\u4e3b\u4f53": 1140, + "\u6269\u5927": 1141, + "\u5916\u90e8": 1142, + "\u673a\u5236": 1143, + "\u529f\u5e95": 1144, + "\u719f\u7ec3": 1145, + "\u5f15\u8bc1": 1146, + "\u4e14": 1147, + "\u5199\u4f5c\u80fd\u529b": 1148, + "\u603b\u4f53\u800c\u8a00": 1149, + "\u6b64": 1150, + "\u6446\u7ebf": 1151, + "\u9f7f": 1152, + "\u9525\u9f7f\u8f6e": 1153, + "\u7d27\u5bc6": 1154, + "\u4f20\u52a8": 1155, + "\u66f4": 1156, + "\u5927\u578b": 1157, + "\u7cbe\u5ea6": 1158, + "\u7528\u4e8e": 1159, + "Q": 1160, + "\u6570\u63a7": 1161, + "\u87ba\u65cb": 1162, + "\u9f7f\u8f6e": 1163, + "\u5207\u524a": 1164, + "\u83b7\u5f97": 1165, + "\u6709\u5229\u4e8e": 1166, + "\u5206\u660e": 1167, + "BLDCM": 1168, + "\u8f6c\u77e9": 1169, + "\u8109\u52a8": 1170, + "\u51fd\u6570": 1171, + "DTC": 1172, + "TSF": 1173, + "\u66f4\u597d": 1174, + "\u6570\u5b66": 1175, + "\u6570\u636e\u6316\u6398": 1176, + "\u8fde\u9501": 1177, + "\u4e2a": 1178, + "\u4e0d\u8db3\u4e4b\u5904": 1179, + "\u53ef\u884c\u6027": 1180, + "\u6574\u7406": 1181, + "\u5404\u4e2a": 1182, + "\u6570\u636e\u5e93": 1183, + "\u6a21\u5f0f": 1184, + "\u6316\u6398": 1185, + "\u53ea\u662f": 1186, + "\u6df1\u5ea6": 1187, + "\u5355\u6676": 1188, + "\u670d\u5f79": 1189, + "\u590d\u6742": 1190, + "\u957f\u671f": 1191, + "\u8815\u53d8": 1192, + "\u5f62\u8c8c": 1193, + "\u6f14\u5316": 1194, + "\u754c\u9762": 1195, + "\u53d8\u5316\u89c4\u5f8b": 1196, + "\u7c89\u672b": 1197, + "\u6210\u578b": 1198, + "\u771f\u7a7a": 1199, + "\u70e7\u7ed3": 1200, + "\u63a2\u7a76": 1201, + "\u65f6\u95f4": 1202, + "Si": 1203, + "\u5c01\u88c5": 1204, + "\u590d\u5408\u6750\u6599": 1205, + "\u8ba8\u8bba": 1206, + "\u5c31": 1207, + "\u800c\u8a00": 1208, + "\u9898\u76ee": 1209, + "\u8fd8\u6709": 1210, + "\u6765\u8bf4": 1211, + "\u6ca1\u6709": 1212, + "\u7279\u522b": 1213, + "\u6c88\u9633": 1214, + "\u5927\u5b66": 1215, + "\u6388\u4e88": 1216, + "\u7ecf": 1217, + "\u5c11\u91cf": 1218, + "\u91cf\u5b50": 1219, + "\u8bc6\u522b": 1220, + "n": 1221, + "\u56fe\u50cf": 1222, + "\u5b58\u50a8": 1223, + "\u5377\u79ef": 1224, + "\u96c6": 1225, + ".%": 1226, + "\u6676\u7c92": 1227, + "\u5c3a\u5bf8": 1228, + "\u7ed9\u51fa": 1229, + "\u949b": 1230, + "\u6297": 1231, + "\u5e7f\u6cdb\u5e94\u7528": 1232, + "\u5851\u6027": 1233, + "\u9700": 1234, + "\u6d41\u53d8": 1235, + "\u7f3a\u70b9": 1236, + "\u4f5c": 1237, + "\u8bc4\u8ff0": 1238, + "Ti": 1239, + "6Al": 1240, + "4V": 1241, + "TiC": 1242, + "TiB": 1243, + "\u589e\u5f3a": 1244, + "\u5747\u5300": 1245, + "\u6cbf": 1246, + "\u521d\u59cb": 1247, + "\u03b2": 1248, + "\u7ec6\u5316": 1249, + "\u8d8b\u52bf": 1250, + "\u7ec4\u6210": 1251, + "\u5f3a\u5ea6": 1252, + "\u4e0b\u964d": 1253, + "\u2103": 1254, + "s": 1255, + "\u5cf0\u503c": 1256, + "\u7531": 1257, + "MPa": 1258, + "5": 1259, + "\u672c\u6784": 1260, + "\u65b9\u7a0b": 1261, + "6": 1262, + "7": 1263, + "\u56fe": 1264, + "\u5bf9\u5e94": 1265, + "\u6700\u4f73": 1266, + "\u6570\u636e\u5904\u7406": 1267, + "\u5145\u5b9e": 1268, + "\u5b66\u79d1\u4e13\u4e1a": 1269, + "\u4e13\u4e1a\u6280\u80fd": 1270, + "\u7ee7\u7535\u5668": 1271, + "\u4e3a\u9898": 1272, + "\u56fa\u6709\u9891\u7387": 1273, + "\u7c27\u7247": 1274, + "\u5b89\u88c5": 1275, + "\u9650\u4f4d": 1276, + "\u7247": 1277, + "\u9650\u5236": 1278, + "\u4e13\u95e8\u77e5\u8bc6": 1279, + "\u949b\u5408\u91d1": 1280, + "\u58f0": 1281, + "\u53d1\u5c04": 1282, + "\u83b7\u53d6": 1283, + "\u635f\u4f24": 1284, + "\u91d1\u5c5e": 1285, + "\u76d1\u6d4b": 1286, + "\u8bc6\u522b\u65b9\u6cd5": 1287, + "\u63a8\u8350": 1288, + "\u00b0": 1289, + "\u4e09\u76f8": 1290, + "\u89e3": 1291, + "\u96f6": 1292, + "\u4f1a": 1293, + "\u5bfc\u81f4": 1294, + "\u4ee3\u66ff": 1295, + "SVPWM": 1296, + "\u590d\u6742\u5ea6": 1297, + "\u5f53\u4eca": 1298, + "\u4e16\u754c": 1299, + "\u4fa6\u67e5": 1300, + "\u7740": 1301, + "\u4fb5\u6743": 1302, + "\u53ef\u80fd": 1303, + "\u635f\u5bb3": 1304, + "\u7a0b\u5e8f": 1305, + "\u89c4\u5236": 1306, + "\u73b0\u884c": 1307, + "\u6551\u6d4e": 1308, + "\u53f8\u6cd5": 1309, + "\u4ee5\u6b64": 1310, + "\u610f\u8bc6": 1311, + "\u5f3a\u70c8": 1312, + "\u4e4b\u4e0a": 1313, + "\u53ef\u64cd\u4f5c\u6027": 1314, + "\u4f7f\u5f97": 1315, + "\u786c\u4ef6": 1316, + "B": 1317, + "\u51cf\u5c0f": 1318, + "\u89c2": 1319, + "\u89c6\u57df": 1320, + "\u719f\u6089": 1321, + "\u57fa\u672c\u539f\u7406": 1322, + "\u8bed\u8a00\u8868\u8fbe": 1323, + "\u987a\u7545": 1324, + "PEO": 1325, + "PLA": 1326, + "\u56fa\u6001": 1327, + "\u805a\u5408\u7269": 1328, + "\u7535\u89e3\u8d28": 1329, + "\u9502\u79bb\u5b50": 1330, + "\u7535\u6c60": 1331, + "\u7269": 1332, + "LCI": 1333, + "\u63ba\u6742": 1334, + "\u81ea\u52a8": 1335, + "\u7535\u5bfc\u7387": 1336, + "\u7ea4\u7ef4": 1337, + "\u5374": 1338, + "\u4ee5\u4e0a": 1339, + "\u8be6\u5b9e": 1340, + "\u591a\u5b54": 1341, + "\u5f15\u8d77": 1342, + "\u9676\u74f7": 1343, + "\u6d82\u5c42": 1344, + "\u5b8c\u5168": 1345, + "\u67e5\u8be2": 1346, + "\u7b26\u5408\u5b9e\u9645": 1347, + "\u8fc7\u5ea6": 1348, + "\u533b\u7597": 1349, + "\u8d23\u4efb": 1350, + "\u7ef4\u62a4": 1351, + "\u60a3\u8005": 1352, + "\u7b2c": 1353, + "\u4e13\u5bb6": 1354, + "\u5b9e\u65bd": 1355, + "\u7edf\u4e00": 1356, + "\u4e0a\u8ff0": 1357, + "\u65b0\u610f": 1358, + "\u503c\u5f97": 1359, + "\u6838\u5fc3\u90e8\u4ef6": 1360, + "\u4e4b\u4e00": 1361, + "\u6da1\u8f6e": 1362, + "\u589e\u538b\u5668": 1363, + "\u6210\u4e3a": 1364, + "\u70ed\u70b9": 1365, + "\u8bd5\u9a8c\u53f0": 1366, + "\u4f9b\u6c14": 1367, + "\u51fa\u53e3": 1368, + "\u538b\u529b": 1369, + "\u6210": 1370, + "\u7535\u6c14": 1371, + "\u6574\u4e2a": 1372, + "\u6709\u5f85": 1373, + "\u7535\u529b": 1374, + "\u5b66": 1375, + "\u4fe1\u53f7\u5904\u7406": 1376, + "\u4e00\u4f53\u5316": 1377, + "\u81ea\u7531\u5ea6": 1378, + "\u5dee\u52a8": 1379, + "\u8ba1\u7b97\u516c\u5f0f": 1380, + "\u7535\u78c1": 1381, + "\u4f4d\u79fb": 1382, + "\u8f6d": 1383, + "\u8ba1\u7b97\u7ed3\u679c": 1384, + "\u53d7": 1385, + "\u504f\u79fb": 1386, + "\u6267\u884c\u5668": 1387, + "\u4f9d\u636e": 1388, + "\u7535\u5e73": 1389, + "\u5f00\u5173": 1390, + "\u56f4\u7ed5": 1391, + "\u56fa\u4f53": 1392, + "\u5fae\u6ce2": 1393, + "\u653e\u5927": 1394, + "\u6d88\u7eb3": 1395, + "\u5206\u5e03\u5f0f": 1396, + "\u7535\u6e90": 1397, + "\u7535\u4ef7": 1398, + "\u7ecf\u6d4e\u6027": 1399, + "\u5229\u7528\u7387": 1400, + "\u9002\u4e2d": 1401, + "\u5e72\u6270": 1402, + "\u79fb\u52a8\u673a\u5668\u4eba": 1403, + "\u4fe1\u606f": 1404, + "\u673a\u5668\u4eba": 1405, + "\u76fe\u6784": 1406, + "\u5730\u94c1": 1407, + "\u96a7\u9053": 1408, + "\u5efa\u8bbe": 1409, + "\u4ec0\u4e48": 1410, + "\u6216\u8005": 1411, + "\u91cd\u5927": 1412, + "\u7535\u5de5\u94a2": 1413, + "\u65cb\u8f6c": 1414, + "\u78c1\u5316": 1415, + "\u78c1\u6ede": 1416, + "\u5e38\u7528": 1417, + "Jiles": 1418, + "Atherton": 1419, + "\u521d\u59cb\u503c": 1420, + "k": 1421, + "\u5bc6\u5ea6": 1422, + "\u628a": 1423, + "\u4e00\u53f0": 1424, + "\u94c1\u5fc3": 1425, + "\u78c1\u573a\u5f3a\u5ea6": 1426, + "\u8bb8\u591a": 1427, + "\u5e0c\u671b": 1428, + "\u878d\u5408": 1429, + "\u5de5\u5b66": 1430, + "\u7acb\u8bba": 1431, + "\u6709\u636e": 1432, + "\u7ae0\u8282": 1433, + "\u73af\u6c27\u6811\u8102": 1434, + "\u6cbf\u9762": 1435, + "\u95ea\u7edc": 1436, + "\u6570\u636e\u5206\u6790": 1437, + "\u7535\u6781": 1438, + "\u538b\u5f3a": 1439, + "\u501f\u52a9": 1440, + "\u626b\u63cf": 1441, + "\u7834\u574f": 1442, + "\u504f\u78c1\u4e0b": 1443, + "\u5341\u5206": 1444, + "\u504f\u78c1": 1445, + "\u6709\u65e0": 1446, + "\u53d6\u5411": 1447, + "\u7845\u94a2\u7247": 1448, + "\u5bf9\u79f0": 1449, + "\u516c\u5f0f": 1450, + "\u53d8": 1451, + "\u54cd\u5e94": 1452, + "\u62df\u5408": 1453, + "\u5f15\u7528": 1454, + "\u865a\u62df": 1455, + "\u53cc\u9988": 1456, + "\u53d8\u6362\u5668": 1457, + "\u6d88\u9664": 1458, + "\u5206\u91cf": 1459, + "\u8c10\u6ce2": 1460, + "Matlab": 1461, + "\u7f3a\u5c11": 1462, + "\u8fbd\u5b81\u7701": 1463, + "\u79d1\u6280\u56ed": 1464, + "\u524d\u6cbf": 1465, + "\u56fd\u5185": 1466, + "\u7c92\u5b50": 1467, + "\u6307\u51fa": 1468, + "\u652f\u6491": 1469, + "\u6587\u7b14\u6d41\u7545": 1470, + "\u5f0f": 1471, + "\u8c03\u901f": 1472, + "DS": 1473, + "\u4f18\u70b9": 1474, + "\u78c1\u8def": 1475, + "\u6ce8\u5165": 1476, + "\u95ed\u73af": 1477, + "\u5236\u4f5c": 1478, + "\u6837\u673a": 1479, + "\u6709\u7740": 1480, + "\u9ad8\u9891": 1481, + "\u9002\u5408": 1482, + "\u907f\u7a0e": 1483, + "\u8d27\u5e01\u653f\u7b56": 1484, + "\u7ecf\u8425": 1485, + "\u4e1a\u7ee9": 1486, + "\u57fa\u672c\u6982\u5ff5": 1487, + "\u4ee3\u7406": 1488, + "\u66f4\u4e3a": 1489, + "\u878d\u8d44": 1490, + "\u7ea6\u675f": 1491, + "\u5b9e\u52a1": 1492, + "\u6765\u770b": 1493, + "GIL": 1494, + "\u5e03\u7f6e": 1495, + "\u5fae\u7c92": 1496, + "\u7279\u8272": 1497, + "\u5176\u4e2d": 1498, + "\u65bd\u52a0": 1499, + "\u8f68\u8ff9": 1500, + "\u8986\u819c": 1501, + "\u539a\u5ea6": 1502, + "\u7406\u8bba\u6307\u5bfc": 1503, + "\u884c\u6587": 1504, + "AGV": 1505, + "\u907f\u969c": 1506, + "\u884c\u9a76": 1507, + "\u969c\u788d\u7269": 1508, + "\u51cf\u5c11": 1509, + "\u5e8f\u5217": 1510, + "\u8f6c\u89d2": 1511, + "\u6a21\u7cca\u63a7\u5236": 1512, + "\u89c4\u5219": 1513, + "\u7efc\u4e0a": 1514, + "\u6b63\u5f26": 1515, + "\u6fc0\u52b1": 1516, + "\u8be6\u7ec6\u5206\u6790": 1517, + "\u6ce2": 1518, + "\u63a5\u5934": 1519, + "\u56fa\u5b9a": 1520, + "\u7ba1\u8def": 1521, + "\u8fde\u63a5": 1522, + "\u5411": 1523, + "\u4ecb\u8d28": 1524, + "\u9632\u6b62": 1525, + "\u4e32\u8054": 1526, + "\u6cc4\u6f0f": 1527, + "\u6d41\u573a": 1528, + "Fluent": 1529, + "\u7740\u91cd": 1530, + "\u5bc6\u5c01": 1531, + "\u95f4\u9699": 1532, + "\u63a5\u5730": 1533, + "\u5355\u76f8\u63a5\u5730": 1534, + "\u5f88\u5927": 1535, + "\u6bd4\u4f8b": 1536, + "\u94c1\u78c1": 1537, + "\u9009\u7ebf": 1538, + "\u96f6\u5e8f": 1539, + "\u76f8\u4f4d": 1540, + "\u5355\u4e00": 1541, + "\u51c6\u786e\u5ea6": 1542, + "\u6c14\u9699": 1543, + "\u5982\u679c": 1544, + "\u9519\u522b\u5b57": 1545, + "\u533b\u9662": 1546, + "\u7528\u6237": 1547, + "DC": 1548, + "\u5e26\u6765": 1549, + "\u6307\u5bfc\u610f\u4e49": 1550, + "\u80a1\u4efd": 1551, + "\u8d44\u91d1": 1552, + "\u4f1a\u8ba1": 1553, + "\u6df7\u4e71": 1554, + "\u5c24\u5176": 1555, + "\u503a\u5238": 1556, + "\u5c5e\u6027": 1557, + "\u6307\u5bfc": 1558, + "\u70bc\u94a2": 1559, + "\u8fde\u94f8": 1560, + "\u5b9a\u4e49": 1561, + "\u89c4\u5212": 1562, + "\u6700\u5c0f\u5316": 1563, + "\u5206\u6563": 1564, + "\u641c\u7d22\u7b97\u6cd5": 1565, + "\u6392\u5e8f": 1566, + "\u9057\u4f20\u7b97\u6cd5": 1567, + "\u968f\u673a": 1568, + "\u540c\u5b66": 1569, + "\u672c\u95e8": 1570, + "\u5bbd\u5e7f": 1571, + "\u6dd8\u6d17": 1572, + "\u601d\u8def\u6e05\u6670": 1573, + "\u6e29\u5347": 1574, + "\u9608\u503c": 1575, + "\u6a21\u6001": 1576, + "means": 1577, + "\u805a\u7c7b": 1578, + "\u79bb\u6563": 1579, + "\u5c11": 1580, + "\u63d0\u70bc": 1581, + "\u6821\u6b63": 1582, + "FV520B": 1583, + "\u4e0d\u9508\u94a2": 1584, + "\u94dd\u5408\u91d1": 1585, + "\u786b\u5316\u7269": 1586, + "\u542b": 1587, + "\u5dee\u5f02": 1588, + "\u6c27\u5316": 1589, + "\u819c": 1590, + "\u949d\u5316": 1591, + "\u6eb6\u89e3": 1592, + "\u88c2\u7eb9": 1593, + "\u9633\u6781": 1594, + "\u5f00\u88c2": 1595, + "\u6269\u5c55": 1596, + "\u786c\u5ea6": 1597, + "\u53f6\u8f6e": 1598, + "\u8870\u51cf": 1599, + "\u8d8a": 1600, + "\u9ad8\u6027\u80fd": 1601, + "\u660e\u663e": 1602, + "\u52a0\u5feb": 1603, + "\u5f3a\u5316": 1604, + "\u57fa\u4f53": 1605, + "\u9ad8\u4e8e": 1606, + "\u6982\u7387": 1607, + "\u7269\u6d41\u914d\u9001": 1608, + "\u53cc\u5c42": 1609, + "\u7a97": 1610, + "\u6ee1\u610f\u5ea6": 1611, + "\u6392\u7248": 1612, + "\u6253\u78e8": 1613, + "\u5de5\u4ef6": 1614, + "\u81ea\u52a8\u5316": 1615, + "\u67d4\u6027": 1616, + "\u5b9a\u4f4d": 1617, + "\u53f0": 1618, + "\u82af": 1619, + "\u5939\u5177": 1620, + "\u65b9\u6848\u8bbe\u8ba1": 1621, + "\u5339\u914d": 1622, + "\u8fd9\u79cd": 1623, + "\u8fd0\u52a8\u5b66": 1624, + "\u5173\u8282": 1625, + "\u8c03\u8bd5": 1626, + "\u78c1\u82af": 1627, + "C": 1628, + "\u7b49\u6548": 1629, + "\u8ba1\u7b97\u65b9\u6cd5": 1630, + "\u7ba1\u9053": 1631, + "\u79bb\u5fc3\u6cf5": 1632, + "\u51b2\u538b": 1633, + "\u710a\u63a5": 1634, + "\u53f6\u7247": 1635, + "\u7814\u53d1": 1636, + "\u79fb\u52a8": 1637, + "\u8679\u819c": 1638, + "\u4e3a\u6b64": 1639, + "\u5b66\u79d1\u524d\u6cbf": 1640, + "\u767d": 1641, + "\u9152\u74f6": 1642, + "\u74f6\u53e3": 1643, + "\u5728\u7ebf": 1644, + "\u96be\u9898": 1645, + "\u6700\u5c0f": 1646, + "\u7ea6": 1647, + "\u8f68\u9053\u4ea4\u901a": 1648, + "\u65ad\u8def\u5668": 1649, + "\u540c\u6b65\u63a7\u5236": 1650, + "\u64cd\u52a8": 1651, + "\u6536\u655b": 1652, + "\u69fd": 1653, + "\u7535\u67a2": 1654, + "\u5e73\u5747": 1655, + "\u4e60\u8fd1\u5e73": 1656, + "\u65f6\u4ee3": 1657, + "\u4e2d\u56fd": 1658, + "\u793e\u4f1a\u4e3b\u4e49": 1659, + "\u5f53\u4ee3": 1660, + "\u524d\u4eba": 1661, + "\u542b\u6c34\u7387": 1662, + "\u5783\u573e": 1663, + "\u5404\u79cd": 1664, + "\u73af\u4fdd": 1665, + "\u5b9a\u91cf": 1666, + "\u4f9b\u5e94\u94fe": 1667, + "H": 1668, + "\u628a\u63e1": 1669, + "\u5f00\u91c7": 1670, + "\u76d8": 1671, + "\u94e3\u524a": 1672, + "\u87ba\u6746\u6cf5": 1673, + "\u5373": 1674, + "\u5207\u524a\u529b": 1675, + "\u81ea\u7531": 1676, + "\u957f\u5ea6": 1677, + "\u52a0\u5de5\u8fc7\u7a0b": 1678, + "\u540e\u7eed": 1679, + "\u6280\u80fd": 1680, + "\u9ad8\u6821": 1681, + "\u793e\u56e2": 1682, + "\u79cd\u7c7b": 1683, + "\u96be\u4ee5": 1684, + "\u7ba1\u7406\u7cfb\u7edf": 1685, + "\u67b6\u6784": 1686, + "\u4fdd\u7406": 1687, + "\u5408\u540c": 1688, + "\u5f53\u4e8b\u4eba": 1689, + "\u6743\u5229\u4e49\u52a1": 1690, + "\u6001\u5ea6": 1691, + "\u7814\u7a76\u8bfe\u9898": 1692, + "\u7f13\u51b2": 1693, + "\u521a\u5ea6": 1694, + "\u53cd": 1695, + "\u9ad8\u6548": 1696, + "\u8272\u8c31": 1697, + "\u8003\u5bdf": 1698, + "\u6d41\u52a8": 1699, + "\u6d41\u901f": 1700, + "\u67f1": 1701, + "mm": 1702, + "\u00d7": 1703, + ":": 1704, + "min": 1705, + "\u65e0\u7ebf": 1706, + "\u5e7f\u9614": 1707, + "\u5206\u7c07": 1708, + "\u8282\u70b9": 1709, + "\u514d\u75ab": 1710, + "\u6240\u6709": 1711, + "\u5b83": 1712, + "\u751f\u5b58": 1713, + "\u63a8\u7406": 1714, + "\u884c\u6587\u6d41\u7545": 1715, + "\u5145\u7535": 1716, + "\u5408\u9002": 1717, + "\u4f9b\u7535\u7cfb\u7edf": 1718, + "\u539f\u8fb9": 1719, + "\u95f4\u8ddd": 1720, + "\u8fdb\u800c": 1721, + "\u5e76\u8054": 1722, + "\u6587\u7406": 1723, + "\u9502\u7535\u6c60": 1724, + "Fe": 1725, + "Ga": 1726, + "\u88c5\u7f6e": 1727, + "\u60ac\u81c2": 1728, + "\u8f93\u51fa\u529f\u7387": 1729, + "\u4f38\u7f29": 1730, + "\u60ac\u81c2\u6881": 1731, + "\u5f2f\u66f2": 1732, + "\u5200\u5177": 1733, + "\u4f4e\u901f": 1734, + "\u7406\u89e3": 1735, + "\u5c0f\u578b": 1736, + "\u5e94\u8be5": 1737, + "\u51e0\u4e4e": 1738, + "\u8fc7\u4e8e": 1739, + "\u5219": 1740, + "\u8026\u5408": 1741, + "\u5173\u952e\u6280\u672f": 1742, + "\u5c55\u793a": 1743, + "\u8f83\u5dee": 1744, + "\u7a7a\u6c14": 1745, + "\u5e73\u8861": 1746, + "\u2014": 1747, + "\u5546\u4e1a\u79d8\u5bc6": 1748, + "\u6297\u8fa9": 1749, + "\u5256\u6790": 1750, + "\u73b0\u72b6\u53ca": 1751, + "\u610f\u601d": 1752, + "\u7ee9\u6548\u8003\u6838": 1753, + "\u7ef4\u5ea6": 1754, + "\u5386\u7a0b": 1755, + "\u8230\u8f7d": 1756, + "\u6297\u51b2\u51fb": 1757, + "\u7f13\u51b2\u5668": 1758, + "0.3": 1759, + "\u56e0\u5b50": 1760, + "\u6587\u672c": 1761, + "\u5176\u4ed6": 1762, + "\u6324\u538b": 1763, + "\u7ecf\u5178": 1764, + "\u78c1\u963b": 1765, + "\u4e00\u6b3e": 1766, + "\u954d": 1767, + "\u77ed\u8def": 1768, + "\u52a8\u529b": 1769, + "\u6ce2\u5f62": 1770, + "\u4f53\u79ef": 1771, + "\u7535\u78c1\u573a": 1772, + "\u52a0\u8f7d": 1773, + "\u5f62": 1774, + "\u5e94\u53d8": 1775, + "\u73af\u7f51\u67dc": 1776, + "\u6b63": 1777, + "\u5f27\u5149": 1778, + "\u6700": 1779, + "\u5c31\u662f": 1780, + "\u4ecd\u7136": 1781, + "\u6a61\u80f6": 1782, + "\u9ad8\u538b": 1783, + "\u6db2\u4f53": 1784, + "\u529b\u5b66": 1785, + "\u78e8\u635f": 1786, + "\u4e01\u8148\u6a61\u80f6": 1787, + "\u6c1f\u6a61\u80f6": 1788, + "\u73af\u5df1\u70f7": 1789, + "\u8001\u5316": 1790, + "\u6eb6\u80c0": 1791, + "\u6469\u64e6": 1792, + "\u6d53\u5ea6": 1793, + "\u9884": 1794, + "\u8bd5\u6837": 1795, + "\u65ad\u88c2": 1796, + "\u76f8\u540c": 1797, + "\u6469\u64e6\u7cfb\u6570": 1798, + "\u56fe\u6807": 1799, + "\u5171\u4eab": 1800, + "\u5c1a\u53ef": 1801, + "\u5f97": 1802, + "\u7b2c\u56db\u7ae0": 1803, + "\u56db\u4e2a": 1804, + "\u867d\u7136": 1805, + "\u7b2c\u4e09\u7ae0": 1806, + "\u8fd8\u662f": 1807, + "\u7528\u8bed": 1808, + "\u5fae\u6e90": 1809, + "\u662f\u5426": 1810, + "\u8868": 1811, + "\u94a2\u7bb1": 1812, + "\u62f1\u6865": 1813, + "\u65bd\u5de5": 1814, + "\u62f1": 1815, + "\u6263\u5854": 1816, + "\u6c11\u4e3b\u515a\u6d3e": 1817, + "\u653f\u6cbb": 1818, + "\u65e0\u6cd5": 1819, + "\u56e0\u4e3a": 1820, + "\u5fc5\u987b": 1821, + "\u6709\u673a": 1822, + "\u519c\u4e1a": 1823, + "\u751f\u6001": 1824, + "\u79d1\u6280\u8fdb\u6b65": 1825, + "\u51fa\u8be5": 1826, + "\u5927\u90e8\u5206": 1827, + "\u8868\u8fbe\u6e05\u6670": 1828, + "\u8f66": 1829, + "\u8def\u9762": 1830, + "\u8f66\u8f86": 1831, + "\u566a\u58f0": 1832, + "\u54c1\u724c": 1833, + "\u5e38\u89c4": 1834, + "\u5355\u4f4d": 1835, + "\u4f8b\u5982": 1836, + "\u6458\u8981": 1837, + "\u4e4b": 1838, + "\u652f\u6301": 1839, + "\u91c7\u8d2d": 1840, + "\u7269\u6599": 1841, + "\u98ce\u9669\u7ba1\u7406": 1842, + "\u5546\u4e1a\u94f6\u884c": 1843, + "\u5ba1\u8ba1": 1844, + "GS": 1845, + "\u7b26\u53f7": 1846, + "\u6811": 1847, + "ANSYS": 1848, + "\u5ea6": 1849, + "\u76f4\u6d41\u7535\u673a": 1850, + "\u5f53": 1851, + "\u529f\u7387\u5bc6\u5ea6": 1852, + "\u65e0\u5237": 1853, + "\u6c11\u65cf": 1854, + "\u624d": 1855, + "\u7cbe\u795e": 1856, + "\u4ef7\u503c\u89c2": 1857, + "\u5c5e\u4e8e": 1858, + "\u76f8\u6bd4": 1859, + "\u4f18\u52bf": 1860, + "\u9694\u79bb": 1861, + "\u4e3b": 1862, + "\u53cc\u76ee": 1863, + "\u7acb\u4f53": 1864, + "\u6293\u53d6": 1865, + "\u5b66\u672f\u7814\u7a76": 1866, + "\u76f8\u673a": 1867, + "\u6807\u5b9a": 1868, + "\u6ee4\u6ce2": 1869, + "\u4f18\u4e8e": 1870, + "\u5706\u67f1\u5f62": 1871, + "\u5404\u7c7b": 1872, + "\u503a\u52a1": 1873, + "\u627e\u5230": 1874, + "\u5047\u8bbe": 1875, + "\u7a33\u5065\u6027": 1876, + "\u94a2": 1877, + "\u8f6f\u96c6": 1878, + "\u76f4\u89c9": 1879, + "\u6570": 1880, + "Choquet": 1881, + "\u903c\u8fd1": 1882, + "\u7406\u60f3": 1883, + "TOPSIS": 1884, + "\u51b3\u7b56": 1885, + "\u79ef\u5206": 1886, + "\u96b6\u5c5e": 1887, + "\u51b3\u7b56\u95ee\u9898": 1888, + "\u800c\u4e14": 1889, + "\u5f55\u7528": 1890, + "\u5b66\u672f\u8bba\u6587": 1891, + "\u9762\u5411": 1892, + "\u5bfc\u5e08": 1893, + "\u64cd\u4f5c\u6280\u80fd": 1894, + "\u524d\u63d0": 1895, + "\u81ea\u7136\u79d1\u5b66": 1896, + "\u5de5\u7a0b\u6280\u672f": 1897, + "\u5173\u952e\u95ee\u9898": 1898, + "\u7535\u70ed": 1899, + "\u55b7\u5634": 1900, + "\u6781": 1901, + "\u56de\u6d41": 1902, + "\u5782\u76f4": 1903, + "\u96fe\u5316": 1904, + "\u89d2": 1905, + "\u9897\u7c92": 1906, + "3D": 1907, + "\u771f\u5b9e": 1908, + "\u81c2": 1909, + "\u8fde\u6746": 1910, + "\u5f39\u6027": 1911, + "\u5feb\u901f": 1912, + "\u524d\u9988": 1913, + "\u8bef\u5dee": 1914, + "\u89c2\u6d4b\u5668": 1915, + "\u89d2\u901f\u5ea6": 1916, + "\u8de8\u5883": 1917, + "\u5e76\u8d2d": 1918, + "\u7ba1\u58f3": 1919, + "\u6362\u70ed\u5668": 1920, + "\u5931\u6548": 1921, + "\u5f15\u53d1": 1922, + "\u673a\u68b0\u5de5\u7a0b": 1923, + "\u6761\u7406\u5206\u660e": 1924, + "\u5b66\u672f\u89c2\u70b9": 1925, + "\u5206\u4e3a": 1926, + "\u592a": 1927, + "\u51b7\u85cf\u8f66": 1928, + "\u836f\u54c1": 1929, + "\u8fdc\u7a0b": 1930, + "\u8f66\u8f7d": 1931, + "\u4e3b\u63a7": 1932, + "CPU": 1933, + "\u5b9a\u4f4d\u7cfb\u7edf": 1934, + "\u670d\u52a1\u5668": 1935, + "\u7ec8\u7aef": 1936, + "\u8bf4": 1937, + "\u76f4\u9a71": 1938, + "\u50a8\u6cb9\u7f50": 1939, + "\u8584\u819c": 1940, + "\u87ba\u7eb9": 1941, + "\u5fae\u52a8": 1942, + "\u6a2a\u5411": 1943, + "\u87ba\u6813": 1944, + "\u63a5\u89e6\u9762": 1945, + "\u6ed1\u79fb": 1946, + "\u9884\u7d27": 1947, + "\u529b\u77e9": 1948, + "\u673a\u55b7\u6746": 1949, + "\u55b7\u6746": 1950, + "\u4e8c": 1951, + "\u5c1a\u672a": 1952, + "\u4e0d\u80fd": 1953, + "\u5149\u4f0f": 1954, + "\u8bbe\u8ba1\u65b9\u6848": 1955, + "MMC": 1956, + "\u4e2d\u5c0f\u4f01\u4e1a": 1957, + "\u4e00\u7c7b": 1958, + "\u8fd9\u662f": 1959, + "\u8fd9\u4e2a": 1960, + "\u7275\u5f15": 1961, + "\u4f20\u52a8\u7cfb\u7edf": 1962, + "\u53d1\u6ce1": 1963, + "\u8f66\u95f4": 1964, + "\u82f1\u6587": 1965, + "\u5e7f\u4e49": 1966, + "\u7ebf\u6027\u5316": 1967, + "\u901f\u7387": 1968, + "\u9c81\u68d2": 1969, + "\u221e": 1970, + "\u8fd9\u6837": 1971, + "\u6881\u6f31\u6e9f": 1972, + "\u5112\u5b66": 1973, + "\u8f6c\u53d8": 1974, + "\u54f2\u5b66": 1975, + "\u8bb2": 1976, + "\u529b\u5ea6": 1977, + "\u76d1\u7763": 1978, + "\u53d7\u9650": 1979, + "\u4eba\u673a\u4ea4\u4e92": 1980, + "\u4ea4\u4e92": 1981, + "\u9ad8\u901f": 1982, + "\u60ac\u67b6": 1983, + "\u672a\u80fd": 1984, + "\u70ae\u957f": 1985, + "\u7784\u51c6\u955c": 1986, + "\u4e13\u5bb6\u7cfb\u7edf": 1987, + "\u6027\u80fd\u6307\u6807": 1988, + "\u90e8\u4ef6": 1989, + "\u7ef4\u4fee": 1990, + "\u7cbe\u5bc6": 1991, + "\u5355\u8f74": 1992, + "\u5168\u5c40": 1993, + "\u9012\u5f52": 1994, + "\u55b7": 1995, + "\u6bd4\u5982": 1996, + "\u65e0\u4eba\u673a": 1997, + "\u8054\u7cfb\u5b9e\u9645": 1998, + "\u7cbe\u76ca": 1999, + "\u8ba2\u5355": 2000, + "\u9762\u4e34": 2001, + "\u751f\u6d3b": 2002, + "PLC": 2003, + "\u5185\u6a21": 2004, + "\u8fdb": 2005, + "\u9ad8\u7cbe\u5ea6": 2006, + "\u6570\u63a7\u673a\u5e8a": 2007, + "\u63a8\u529b": 2008, + "\u8868\u8fbe\u5f0f": 2009, + "\u57fa\u91d1": 2010, + "\u5de8\u5927": 2011, + "\u4e89\u8bae": 2012, + "\u5b9a\u4ef7": 2013, + "\u56de\u987e": 2014, + "\u671f\u6743": 2015, + "\u914d\u9001": 2016, + "\u6539\u6027": 2017, + "\u7269\u8d28": 2018, + "ACM": 2019, + "HPVC": 2020, + "TPE": 2021, + "\u8010\u70ed": 2022, + "\u6cb9": 2023, + "\u56de\u5f39": 2024, + "\u7efc\u5408\u6027": 2025, + "\u6709\u6240": 2026, + "\u6750\u6599\u79d1\u5b66": 2027, + "\u79d1\u5b66\u6027": 2028, + "\u6309\u7167": 2029, + "CAD": 2030, + "CAM": 2031, + "\u6563\u70ed\u5668": 2032, + "\u6e29\u5ea6\u573a": 2033, + "\u6c14\u6d41": 2034, + "\u6708": 2035, + "\u65e5": 2036, + "\u8f6f\u4ef6\u7cfb\u7edf": 2037, + "\u8102\u80aa\u9187": 2038, + "\u805a\u6c27\u4e59\u70ef\u919a": 2039, + "=": 2040, + "OFDM": 2041, + "\u4e00\u5e26": 2042, + "\u4e00\u8def": 2043, + "\u6cbf\u7ebf": 2044, + "\u6d6e\u52a8": 2045, + "\u6cb9\u5c01": 2046, + "\u96f6\u4ef6": 2047, + "O": 2048, + "\u5bc6\u5c01\u5708": 2049, + "\u6ed1\u52a8": 2050, + "EBE": 2051, + "\u9884\u5904\u7406": 2052, + "\u8fed\u4ee3": 2053, + "\u504f\u5fc3": 2054, + "\u52a9\u884c": 2055, + "\u6f14\u53d8": 2056, + "\uff1f": 2057, + "\u5f62\u6001": 2058, + "\u5e2e\u52a9": 2059, + "\uff0e": 2060, + "\u58f0\u5b66": 2061, + "\u91cd\u5efa": 2062, + "MKR": 2063, + "MTR": 2064, + "\u5947\u5f02": 2065, + "\u9762": 2066, + "\u4f8b\u5b50": 2067, + "\u73b0\u4ee3": 2068, + "\u7269\u6d41": 2069, + "\u8fd0\u8425": 2070, + "\u7269\u7406": 2071, + "\u4f9b\u7ed9": 2072, + "\t": 2073, + "\u5206\u6790\u6a21\u578b": 2074, + "\u7565\u663e": 2075, + "\u77f3\u58a8": 2076, + "\u70ef": 2077, + "\u8d1f\u6781": 2078, + "\u591a\u5c42": 2079, + "\u73b0\u91d1": 2080, + "\u6df1": 2081, + "\u8f67\u5236": 2082, + "\u79bb\u5fc3": 2083, + "\u538b\u7f29\u673a": 2084, + "\u6709\u8bef": 2085, + "\u4e3a\u4ec0\u4e48": 2086, + "\u8bbe\u5b9a": 2087, + "A": 2088, + "\u68d2\u6750": 2089, + "\u77eb\u76f4": 2090, + "\u5f2f\u77e9": 2091, + "\u66f2\u7387": 2092, + "\u8f8a": 2093, + "\u6700\u4f18\u63a7\u5236": 2094, + "\u5ea7\u6905": 2095, + "\u5f2f\u7ba1": 2096, + "\u4ee5\u5185": 2097, + "\u663e\u7136": 2098, + "\u57f9\u80b2": 2099, + "\u5706\u5468": 2100, + "\u5206\u79bb\u673a": 2101, + "\u789f\u7247": 2102, + "\u76d2": 2103, + "\u8868\u793a": 2104, + "BM": 2105, + "\u5168": 2106, + "\u5e38\u6001": 2107, + "\u8f6c\u5411": 2108, + "BIM": 2109, + "\u4e13\u4e1a\u5b66\u4f4d": 2110, + "Zr50Cu40Al10": 2111, + "\u526a\u5207": 2112, + "\u6790\u51fa": 2113, + "\u6837\u54c1": 2114, + "\u4fdd\u6301": 2115, + "\u7eb9": 2116, + "\u6676\u4f53": 2117, + "\u03b1": 2118, + "GO": 2119, + "PVDF": 2120, + "\u5fae": 2121, + "\u6ee4\u819c": 2122, + "\u6297\u6c61\u67d3": 2123, + "\u5ba2\u89c2": 2124, + "\u6e05\u6d01": 2125, + "\u540c\u6b65\u673a": 2126, + "\u5bf9\u63a5": 2127, + "\u5e76\u672a": 2128, + "\u78c1\u969c": 2129, + "\u5e94\u529b\u573a": 2130, + "\u666e\u901a": 2131, + "\u7247\u5f0f": 2132, + "\u81ea\u8eab": 2133, + "Cu": 2134, + "\u6210\u5f62": 2135, + "\u78e8\u524a": 2136, + "\u667a\u80fd\u5316": 2137, + "\u4f5c\u52a8\u5668": 2138, + "\u5149\u6805": 2139, + "\u77ac\u6001": 2140, + "\u504f\u597d": 2141, + "\u5e8f": 2142, + "\u556e\u5408": 2143, + "\u8f6e\u9f7f": 2144, + "\u9644\u8fd1": 2145, + "\u94dd\u57fa": 2146, + "\u78b3\u5316\u7845": 2147, + "\u6700\u65b0": 2148, + "\u8230\u8239": 2149, + "\u5148\u8fdb\u6027": 2150, + "\u6c34\u6ce5": 2151, + "\u5e26\u6709": 2152, + "\u5eb7\u590d": 2153, + "\u8ba1\u7b97\u673a": 2154, + "\u4e94\u8f74": 2155, + "\u4e49\u9f7f": 2156, + "\u53ef\u89c6\u5316": 2157, + "\u4f9d\u6cd5\u6cbb\u56fd": 2158, + "\u7eb5\u5411": 2159, + "\u5728\u4e8e": 2160, + "\u7a00\u758f": 2161, + "\u4e0d\u9519": 2162, + "\u7fa4\u4f17\u89c2": 2163, + "\u8df5\u884c": 2164, + "\u9014\u5f84": 2165, + "\u77ff\u7269": 2166, + "\u65cb\u6d41": 2167, + "\u4f18\u826f": 2168, + "\u4eba\u4eec": 2169, + "\u6743\u5229": 2170, + "\u5185\u6db5": 2171, + "\u7a7a\u5316": 2172, + "\u649e\u51fb": 2173, + "\u78b0\u649e": 2174, + "15.0": 2175, + "\u5316\u5b66\u53cd\u5e94": 2176, + "\u5bfb\u627e": 2177, + "\u51e0\u4f55": 2178, + "\u673a\u5e8a": 2179, + "\u5e95": 2180, + "\u4e0d\u5f53": 2181, + "\u8fd1": 2182, + "\u65ad\u5c42": 2183, + "\u6709\u9650": 2184, + "\u6a21\u62df\u8ba1\u7b97": 2185, + "\u79bb\u5b50": 2186, + "\u5206\u79bb": 2187, + "\u805a\u919a": 2188, + "\u8fde\u7eed": 2189, + "\u78b3\u7ea4\u7ef4": 2190, + "\u51c6\u5219": 2191, + "\u4f20\u52a8\u8f74": 2192, + "\u52a0\u70ed": 2193, + "\u4e2a\u4eba": 2194, + "\u4fe1\u606f\u7f51\u7edc": 2195, + "\u51b3\u7b56\u8005": 2196, + "\u4f9b\u5e94\u5546": 2197, + "\u4e3a\u4f8b": 2198, + "\u5730\u65b9": 2199, + "\u8bae\u8bba": 2200, + "\u6f5c\u6cb9": 2201, + "\u7ec4": 2202, + "\u53d8\u7535\u7ad9": 2203, + "\u4e94\u9632": 2204, + "\u8870\u9000": 2205, + "\u5bf9\u6bd4\u5ea6": 2206, + "B1": 2207, + "\u53cd\u6f14": 2208, + "\u5e9f\u65e7": 2209, + "\u5c1a": 2210, + "\u4f7f\u7528\u8005": 2211, + "\u91d1\u878d": 2212, + "\u58f0\u97f3": 2213, + "\u4efb\u52a1": 2214, + "\u5355\u76ee": 2215, + "\u6444\u50cf\u673a": 2216, + "\u4ee3\u4ef7": 2217, + "\u805a\u5408": 2218, + "\u4e0d\u52a8\u4ea7": 2219, + "\u9884\u544a": 2220, + "\u767b\u8bb0": 2221, + "Cf": 2222, + "\u5c42\u72b6": 2223, + "\u8d85\u58f0": 2224, + "\u9884\u5236": 2225, + "TC4": 2226, + "\u710a\u7f1d": 2227, + "\u7194\u6c60": 2228, + "\u6307\u8282": 2229, + "\u9ad8\u65af": 2230, + "\u6dec\u706b": 2231, + "\u5438\u6ce2\u5242": 2232, + "\u5438\u6ce2": 2233, + "\u672c\u8eab": 2234, + "\u5e94\u5f53": 2235, + "Ni": 2236, + "\u9884\u5e94\u529b": 2237, + "\u5bc6\u5b9e": 2238, + "\u518d\u751f": 2239, + "\u6df7\u51dd\u571f": 2240, + "\u9aa8\u6599": 2241, + "\u6881": 2242, + "\u793e\u533a": 2243, + "\u5408\u4f5c": 2244, + "\u5ca9\u77f3": 2245, + "\u6309\u952e": 2246, + "\u4e8c\u7ea7": 2247, + "\u6eda\u5200": 2248, + "\u6da1\u6d41": 2249, + "\u6cb9\u7eb8": 2250, + "\u8f6e\u6bc2": 2251, + "\u8230\u8f7d\u673a": 2252, + "\u7275\u5f15\u8f66": 2253, + "\u5236\u52a8": 2254, + "\u4eba\u5de5\u667a\u80fd": 2255, + "\u4eba\u8138\u8bc6\u522b": 2256, + "\u4e73\u80f6\u624b\u5957": 2257, + "\u7ecf\u8425\u6743": 2258, + "\u571f\u5730": 2259, + "\u627f\u5305\u4eba": 2260, + "\u9000\u706b": 2261, + "\u65f6\u95f4\u5e38\u6570": 2262, + "\u70ed\u7535\u5076": 2263, + "\u5206\u62e3": 2264, + "\u6c14\u6ce1": 2265, + "\u7384\u6b66\u5ca9": 2266, + "\u884c\u661f": 2267, + "\u672c\u7ae0": 2268, + "\u534f\u540c\u6548\u5e94": 2269, + "\u6676\u5706": 2270, + "\u4e8c\u6781\u7ba1": 2271, + "\u80a1\u6743": 2272, + "\u6587\u5316\u9057\u4ea7": 2273, + "\u4e3b\u9898": 2274, + "\u76f8\u4f3c": 2275, + "\u77e5\u8bc6\u4ea7\u6743": 2276, + "\u9875": 2277, + "\u4f5c\u54c1": 2278, + "\u671f\u9650": 2279, + "\u8f6e": 2280, + "\u78c1\u529b": 2281, + "\u6bd4\u7387": 2282, + "\u6e20\u9053": 2283, + "\u7535\u4e3b\u8f74": 2284, + "\u673a\u68b0\u624b": 2285, + "\u94a2\u7ba1": 2286, + "\u725b\u817f": 2287, + "\u6ce2\u6d6a": 2288, + "\u6ed1\u7fd4": 2289, + "\u6c34\u9762": 2290, + "\u6d6e\u4f53": 2291, + "\u4eba\u58eb": 2292, + "\u534f\u4f5c": 2293, + "\u4eba\u673a": 2294, + "\u6c89\u79ef": 2295, + "\u62a5\u8b66": 2296, + "\u5b6a\u6676": 2297, + "\u6cb9\u70df": 2298, + "\u901a\u8baf": 2299, + "LED": 2300, + "LLC": 2301, + "\u73b0\u91d1\u6d41": 2302, + "\u73b0\u91d1\u6d41\u91cf": 2303, + "\u9884\u7b97": 2304, + "\u670d\u52a1": 2305, + "\u6c34\u4e0b": 2306, + "\u91cd\u5fc3": 2307, + "\u87ba\u65cb\u6868": 2308, + "\u60ef\u6027": 2309, + "\u9006\u5224": 2310, + "\u5c04\u9891": 2311, + "\u91cd\u4f20": 2312, + "\u6bcd\u6750": 2313, + "\u9886\u5934": 2314, + "\u9e1f": 2315, + "\u9a6c\u6c0f\u4f53": 2316, + "HAZ": 2317, + "\u970d\u59c6\u65af": 2318, + "\u7ecf\u9a8c\u8bba": 2319, + "\u4f01\u4e1a\u5bb6": 2320, + "\u5361\u5c14\u66fc\u6ee4\u6ce2": 2321, + "\u4e09\u4e09\u5236": 2322, + "\u653f\u6743": 2323, + "\u653f\u6743\u5efa\u8bbe": 2324, + "\u78b3\u5316\u787c": 2325, + "\u884c\u6ce2": 2326, + "\u819d\u5173\u8282": 2327, + "\u4e91": 2328, + "SCADA": 2329, + "CPs": 2330, + "\u6728\u6750": 2331, + "\u5c0f\u65f6": 2332, + "Ca": 2333, + "\u71c3\u673a": 2334, + "\u9762\u95f4": 2335, + "\u7acb\u4f53\u4ed3\u5e93": 2336, + "\u51fa\u5e93": 2337, + "\u7eb5\u6881": 2338, + "\u7fc5\u7247\u7ba1": 2339, + "\u6a2a\u6446": 2340, + "\u626b\u67e5": 2341, + "\u7194\u8986": 2342, + "\u533b\u836f\u516c\u53f8": 2343, + "\u62d3\u5c55": 2344, + "\u56fa\u4f53\u5e9f\u7269": 2345, + "\u7a7a\u8c03": 2346, + "\u6cb9\u6e29": 2347, + "\u5de5\u65f6": 2348, + "\u70ad\u819c": 2349, + "\u5806\u77f3": 2350, + "\u52a0\u5f3a\u7b4b": 2351, + "\u6cb9\u7bb1": 2352, + "\u8003\u6838": 2353, + "\u524a\u5cf0": 2354, + "\u586b\u8c37": 2355, + "\u5438\u5f15": 2356, + "\u5e72\u70ed\u5ca9": 2357, + "\u82b1\u5c97\u5ca9": 2358, + "\u4e09\u8f74": 2359, + "\u03b5": 2360, + "\u5750\u57ab": 2361, + "\u6c14\u6d6e": 2362, + "\u4e92\u8865": 2363, + "\u4f9d\u5b58": 2364, + "": 0, + "": 1, + "": 2, + "": 3 +} \ No newline at end of file diff --git a/data/ai_challenger_fsauor2018_testa_20180816.zip b/data/ai_challenger_fsauor2018_testa_20180816.zip new file mode 100644 index 0000000000000000000000000000000000000000..3b756fdf188604c5404b74dd779d79273fcce8f6 --- /dev/null +++ b/data/ai_challenger_fsauor2018_testa_20180816.zip @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:a768be12cb62b4f70d99816f2c023237716129fc93785cde67ea1c777537c299 +size 6923945 diff --git a/data/ai_challenger_fsauor2018_trainingset_20180816.zip b/data/ai_challenger_fsauor2018_trainingset_20180816.zip new file mode 100644 index 0000000000000000000000000000000000000000..31549d62e73954d244876fa25f6c5cb5e8ef6410 --- /dev/null +++ b/data/ai_challenger_fsauor2018_trainingset_20180816.zip @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:715f342e7be701d133abb21219fa1c2ef248de730aed14c5e1fdf5318dfef5f1 +size 49569368 diff --git a/data/ai_challenger_fsauor2018_validationset_20180816.zip b/data/ai_challenger_fsauor2018_validationset_20180816.zip new file mode 100644 index 0000000000000000000000000000000000000000..aadfb1bc9b4d45606facaeb7e3e5f83eaafa7f82 --- /dev/null +++ b/data/ai_challenger_fsauor2018_validationset_20180816.zip @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:b65b4cee8749c1608e782712aac13896a5a81d023451832220ac64a01bd2abd8 +size 7115966 diff --git a/data/ai_challenger_sentiment_analysis_testa_20180816/README.txt b/data/ai_challenger_sentiment_analysis_testa_20180816/README.txt new file mode 100644 index 0000000000000000000000000000000000000000..01c89fc2e864eaf1a32669389696829031cbdba2 --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_testa_20180816/README.txt @@ -0,0 +1,2 @@ +sentiment_analysis_testa.csv 为测试集A数据文件,共15000条评论数据 +protocol.txt 为数据集下载协议 diff --git a/data/ai_challenger_sentiment_analysis_testa_20180816/protocol.txt b/data/ai_challenger_sentiment_analysis_testa_20180816/protocol.txt new file mode 100644 index 0000000000000000000000000000000000000000..7025353faf5fd49304e32fd60eb0a59f552b948c --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_testa_20180816/protocol.txt @@ -0,0 +1,12 @@ + 数据集下载协议 + +您(以下称“研究者”)正在请求举办方授予您访问、下载并使用数据集(以下简称“数据集”)的权利(以下简称“授权”),作为获得该等授权的条件,您同意遵守以下条款: + +1、研究者同意仅为非商业性的科学研究或课堂教学目的使用数据集,并不得将数据集用于任何商业用途; +2、我们不享有数据集中使用的图片、音频、文字等内容的知识产权,对前述内容不作任何保证,包括但不限于不侵犯他人知识产权或可将前述内容用于任何特定目的; +3、我们不承担因数据集使用造成的任何形式的损失或伤害,不会对任何因使用比赛数据产生的法律后果承担任何责任; +4、 与数据集使用有关的任何法律责任均由研究者承担,如研究者或其员工、代理人、分支机构使用数据集的行为给我们造成声誉或经济损失,研究者应当承担赔偿责任; +5、研究者可以授权其助手、同事或其他合作者访问和使用数据集,但应确保前述人员已经认真阅读并同意接受本协议约束; +6、如果研究者受雇于以盈利为目的的商业主体,应确保使用数据集仅用于非商业目的,且其雇主同样受本协议约束,研究者确认其签订本协议前已经取得雇主的充分授权。 +7、我们有权随时取消或撤回对研究者使用数据集的授权,并有权要求研究者删除已下载数据集; +8、凡因本合同引起的或与本合同有关的任何争议,均应提交中国国际经济贸易仲裁委员会,按照申请仲裁时该会现行有效的仲裁规则,并适用中华人民共和国法律解决进行仲裁。仲裁语言应为中文。 diff --git a/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa.csv b/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa.csv new file mode 100644 index 0000000000000000000000000000000000000000..5957f173f6f7b56e60d9ccdd6c6e54adc9da14ac --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:807246836a9dc6974860bdb18a33be07cb850d2ed5e28c87170514fe16df33d2 +size 15608586 diff --git a/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa2.csv b/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa2.csv new file mode 100644 index 0000000000000000000000000000000000000000..6feb8c7df7d18dbde12e8de3d9eb42900f0af8ec --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_testa_20180816/sentiment_analysis_testa2.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:f853d7296a74269ec3da9a2bf3ed1493cd422d40bd799dbb41ec9fd09543b1f1 +size 200185 diff --git a/data/ai_challenger_sentiment_analysis_trainingset_20180816/README.txt b/data/ai_challenger_sentiment_analysis_trainingset_20180816/README.txt new file mode 100644 index 0000000000000000000000000000000000000000..554effb1402f17d0585b4be7f3a4dca2f4ae7a4b --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_trainingset_20180816/README.txt @@ -0,0 +1,3 @@ +sentiment_analysis_trainingset.csv 为训练集数据文件,共105000条评论数据 +sentiment_analysis_trainingset_annotations.docx 为数据标注说明文件 +protocol.txt 为数据集下载协议 diff --git a/data/ai_challenger_sentiment_analysis_trainingset_20180816/protocol.txt b/data/ai_challenger_sentiment_analysis_trainingset_20180816/protocol.txt new file mode 100644 index 0000000000000000000000000000000000000000..7025353faf5fd49304e32fd60eb0a59f552b948c --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_trainingset_20180816/protocol.txt @@ -0,0 +1,12 @@ + 数据集下载协议 + +您(以下称“研究者”)正在请求举办方授予您访问、下载并使用数据集(以下简称“数据集”)的权利(以下简称“授权”),作为获得该等授权的条件,您同意遵守以下条款: + +1、研究者同意仅为非商业性的科学研究或课堂教学目的使用数据集,并不得将数据集用于任何商业用途; +2、我们不享有数据集中使用的图片、音频、文字等内容的知识产权,对前述内容不作任何保证,包括但不限于不侵犯他人知识产权或可将前述内容用于任何特定目的; +3、我们不承担因数据集使用造成的任何形式的损失或伤害,不会对任何因使用比赛数据产生的法律后果承担任何责任; +4、 与数据集使用有关的任何法律责任均由研究者承担,如研究者或其员工、代理人、分支机构使用数据集的行为给我们造成声誉或经济损失,研究者应当承担赔偿责任; +5、研究者可以授权其助手、同事或其他合作者访问和使用数据集,但应确保前述人员已经认真阅读并同意接受本协议约束; +6、如果研究者受雇于以盈利为目的的商业主体,应确保使用数据集仅用于非商业目的,且其雇主同样受本协议约束,研究者确认其签订本协议前已经取得雇主的充分授权。 +7、我们有权随时取消或撤回对研究者使用数据集的授权,并有权要求研究者删除已下载数据集; +8、凡因本合同引起的或与本合同有关的任何争议,均应提交中国国际经济贸易仲裁委员会,按照申请仲裁时该会现行有效的仲裁规则,并适用中华人民共和国法律解决进行仲裁。仲裁语言应为中文。 diff --git a/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset.csv b/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset.csv new file mode 100644 index 0000000000000000000000000000000000000000..f0c7ad8981f9f61fc36704bf2545d0f662b542fd --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:b9fe39cb75d3cbe8cb72871b963678fd56885d55fe6a80182838d3ef71955fea +size 112621685 diff --git a/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset_annotations.docx b/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset_annotations.docx new file mode 100644 index 0000000000000000000000000000000000000000..025a7af1db7ba2f814101223bd469368ce872403 Binary files /dev/null and b/data/ai_challenger_sentiment_analysis_trainingset_20180816/sentiment_analysis_trainingset_annotations.docx differ diff --git a/data/ai_challenger_sentiment_analysis_validationset_20180816/README.txt b/data/ai_challenger_sentiment_analysis_validationset_20180816/README.txt new file mode 100644 index 0000000000000000000000000000000000000000..f91dc42fa9187a2b815521505b1e8f3376f8a69a --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_validationset_20180816/README.txt @@ -0,0 +1,3 @@ +sentiment_analysis_validationset.csv 为验证集数据文件,共15000条评论数据 +sentiment_analysis_validationset_annotations.docx 为数据标注说明文件 +protocol.txt 为数据集下载协议 diff --git a/data/ai_challenger_sentiment_analysis_validationset_20180816/protocol.txt b/data/ai_challenger_sentiment_analysis_validationset_20180816/protocol.txt new file mode 100644 index 0000000000000000000000000000000000000000..7025353faf5fd49304e32fd60eb0a59f552b948c --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_validationset_20180816/protocol.txt @@ -0,0 +1,12 @@ + 数据集下载协议 + +您(以下称“研究者”)正在请求举办方授予您访问、下载并使用数据集(以下简称“数据集”)的权利(以下简称“授权”),作为获得该等授权的条件,您同意遵守以下条款: + +1、研究者同意仅为非商业性的科学研究或课堂教学目的使用数据集,并不得将数据集用于任何商业用途; +2、我们不享有数据集中使用的图片、音频、文字等内容的知识产权,对前述内容不作任何保证,包括但不限于不侵犯他人知识产权或可将前述内容用于任何特定目的; +3、我们不承担因数据集使用造成的任何形式的损失或伤害,不会对任何因使用比赛数据产生的法律后果承担任何责任; +4、 与数据集使用有关的任何法律责任均由研究者承担,如研究者或其员工、代理人、分支机构使用数据集的行为给我们造成声誉或经济损失,研究者应当承担赔偿责任; +5、研究者可以授权其助手、同事或其他合作者访问和使用数据集,但应确保前述人员已经认真阅读并同意接受本协议约束; +6、如果研究者受雇于以盈利为目的的商业主体,应确保使用数据集仅用于非商业目的,且其雇主同样受本协议约束,研究者确认其签订本协议前已经取得雇主的充分授权。 +7、我们有权随时取消或撤回对研究者使用数据集的授权,并有权要求研究者删除已下载数据集; +8、凡因本合同引起的或与本合同有关的任何争议,均应提交中国国际经济贸易仲裁委员会,按照申请仲裁时该会现行有效的仲裁规则,并适用中华人民共和国法律解决进行仲裁。仲裁语言应为中文。 diff --git a/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset.csv b/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset.csv new file mode 100644 index 0000000000000000000000000000000000000000..c5ab85d6953fa7e5383c247dd9c5b578d4a827af --- /dev/null +++ b/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:a72efc85000b735c4a1e795e3f854c880887bf0a25216c8e81e5d99ddb6979f8 +size 16016113 diff --git a/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset_annotations.docx b/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset_annotations.docx new file mode 100644 index 0000000000000000000000000000000000000000..025a7af1db7ba2f814101223bd469368ce872403 Binary files /dev/null and b/data/ai_challenger_sentiment_analysis_validationset_20180816/sentiment_analysis_validationset_annotations.docx differ diff --git a/data/ai_challenger_sentiment_analysis_validationset_20180816/~$ntiment_analysis_validationset_annotations.docx b/data/ai_challenger_sentiment_analysis_validationset_20180816/~$ntiment_analysis_validationset_annotations.docx new file mode 100644 index 0000000000000000000000000000000000000000..fcd42e3fa9819ae3c2e99e74ae57ff52b9d59275 Binary files /dev/null and b/data/ai_challenger_sentiment_analysis_validationset_20180816/~$ntiment_analysis_validationset_annotations.docx differ diff --git a/data/protocol.txt b/data/protocol.txt new file mode 100644 index 0000000000000000000000000000000000000000..7025353faf5fd49304e32fd60eb0a59f552b948c --- /dev/null +++ b/data/protocol.txt @@ -0,0 +1,12 @@ + 数据集下载协议 + +您(以下称“研究者”)正在请求举办方授予您访问、下载并使用数据集(以下简称“数据集”)的权利(以下简称“授权”),作为获得该等授权的条件,您同意遵守以下条款: + +1、研究者同意仅为非商业性的科学研究或课堂教学目的使用数据集,并不得将数据集用于任何商业用途; +2、我们不享有数据集中使用的图片、音频、文字等内容的知识产权,对前述内容不作任何保证,包括但不限于不侵犯他人知识产权或可将前述内容用于任何特定目的; +3、我们不承担因数据集使用造成的任何形式的损失或伤害,不会对任何因使用比赛数据产生的法律后果承担任何责任; +4、 与数据集使用有关的任何法律责任均由研究者承担,如研究者或其员工、代理人、分支机构使用数据集的行为给我们造成声誉或经济损失,研究者应当承担赔偿责任; +5、研究者可以授权其助手、同事或其他合作者访问和使用数据集,但应确保前述人员已经认真阅读并同意接受本协议约束; +6、如果研究者受雇于以盈利为目的的商业主体,应确保使用数据集仅用于非商业目的,且其雇主同样受本协议约束,研究者确认其签订本协议前已经取得雇主的充分授权。 +7、我们有权随时取消或撤回对研究者使用数据集的授权,并有权要求研究者删除已下载数据集; +8、凡因本合同引起的或与本合同有关的任何争议,均应提交中国国际经济贸易仲裁委员会,按照申请仲裁时该会现行有效的仲裁规则,并适用中华人民共和国法律解决进行仲裁。仲裁语言应为中文。 diff --git a/data/test/test_data.csv b/data/test/test_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..5c65f89cbbc962cd86f99bbe05bf211635f9d89d --- /dev/null +++ b/data/test/test_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:e98ad61b049ebf83bc1bbcb6fdb1cfc5c044f65eed77bdcdf3983a1ed5669ba3 +size 609792 diff --git a/data/test/test_data_old.csv b/data/test/test_data_old.csv new file mode 100644 index 0000000000000000000000000000000000000000..93ea6769bb5d89c27d095fa1d49e5aa59d0ecdc2 --- /dev/null +++ b/data/test/test_data_old.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:8b44d2ea97a6beca9822e6cd2f977ba90d7ee30cd821f1248d6939312fca9ce4 +size 158194 diff --git a/data/total.csv b/data/total.csv new file mode 100644 index 0000000000000000000000000000000000000000..2e5d11452bbccab139b2254ed62b4dc92828e3ed --- /dev/null +++ b/data/total.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:a702dda1b1abec204cb0a389c39bcd3968fcbfc4e802ae263b72b8fe772f9c98 +size 3102984 diff --git a/data/train/train_data.csv b/data/train/train_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..c336c616dc6009c8c3c4a9cabe1be58d01631897 --- /dev/null +++ b/data/train/train_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:4d470333dade24f7f5bb484c64aa66372206dddf89c0a152a9d23489aabf248e +size 1873975 diff --git a/data/train/train_data.txt b/data/train/train_data.txt new file mode 100644 index 0000000000000000000000000000000000000000..e4f11a50d22b14168f404980279ff4b4a67b3022 --- /dev/null +++ b/data/train/train_data.txt @@ -0,0 +1,1840 @@ +id,content,标题,选题角度与价值,文献综述归纳总结情况,论文工作量,是否掌握基础(专业)知识,是否具备科研能力,格式规范,行文表达,逻辑性,研究方法,研究结论,创新性及论文价值,理论深度,学术端正性 +1452,该文以盘式电磁铁为研究对象,利用有限元仿真软件 Ansoft Maxwell,根据盘式电磁铁的理论设计结构参数值,建立了二维和三维模型,进行永磁尺寸、隔磁材料尺寸、动铁心长度这三个结构参数的参数化仿真,确定了这三个结构参数对电磁铁静态特性和动态特性的影响,改进了盘式含永磁电磁铁的理论设计的结构参数值;搭建了电磁铁的控制系统的仿真模型,仿真结果表明:该控制系统可以根据煤层变化连续调整电磁铁吸力,提高了电磁铁加载装置适应给煤量变化的能力。 全文条理清晰,重点突出,是一篇合格的硕士论文,同意进行答辩。,0,0,0,0,0,0,0,0,1,0,1,0,0,0 +2298,本文对广藿香、迷迭香和鸡蛋花三种香料植物精油对蚊虫的驱避熏杀作用和抗氧化活性进行了研究,并探讨了蒸馏时间对迷迭香精油化学成分及生物活性的影响。该论文文献调研充分,书写规范;实验设计合理,数据翔实,所得结果真实可靠,对于该类化合物的性质研究具有一定的参考价值;该论文达到了硕士学位论文水平,同意进行答辩。但是文中还存在一些问题,具体如下:16页中,图3-1中,请给出主要峰的出峰时间;第八章结论部分,请作者进一步精炼结论,目前结论有点冗长,重点不突出;部分参考文献格式不一致,如期刊名中实词首字母都应该大写等。,0,0,1,0,0,0,-1,0,0,0,-1,0,0,0 +1072,本论文的主要研究对象为风力发电机的滚动轴承部分,作者引入数学形态学滤波方法提取了滚动轴承故障特征信息,并针对针对单尺度形态滤波方法对滚动轴承特征信息提取不完整的问题,提出新的自适应多尺度增强差分积形态滤波方法,并针对具体诊断应用实例进行了有效的验证。本研究具有一定的创新性,针对实际问题提出了行之有效的方法,仿真研究与实际工程验证相结合,取得了良好的效果。本人同意该学位论文进行答辩。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1831,论文以审计定价理论、信息不对称理论、信号传递理论、委托代理理论以及深口袋理论为基础,对业绩承诺、真实盈余管理以及审计费用三者之间的关系进行了相关理论分析。实证结果表明:业绩承诺会使审计收费提高;选择股份补偿方式和采用单向业绩承诺的企业将被收取更高的审计费用;真实盈余管理在业绩承诺与审计收费间起到中介作用。 论文基本观点正确,论证较为清晰有力,论据较为充分,数据准确,文献综述规范,作者能够运用所学专业知识分析并试图解决实践问题,表现出一定的理论功底。论文结构严谨,层次分明,采用了递进式的分析结构,逻辑性强,文笔流畅,表达清晰,重点突出。文章格式符合学术规范。反映作者具有一定的独立科研能力。,0,0,1,0,1,1,1,1,1,0,0,0,0,0 +984,小学语文阅读教学中高阶思维能力的培养是小学语文教学中的重点和难点问题,也是一线教师们较为关注的问题之一,对其进行探究,具有一定的教育意义。论文写作整体而言,思路较为清晰,格式规范性良好,语言流畅,逻辑鲜明;将质性和量化研究相结合,研究方法较为合理,所得结果也具有一定的教育启示作用,体现了基本的论文写作能力。 但是,文献综述部分写作还需要进一步凝练,有些数据表格可以简化。 建议再进一步修改和完整,从而更好的提升论文质量。,0,1,-1,0,0,0,1,1,1,1,1,0,0,0 +615,论文针对工业应用中一些问题,参考淀粉酯的合成机理,以田菁胶为原料,马来酸酐(顺丁烯二酸酐)作为酯化剂,吡啶作为催化剂,对马来酸酐酯化酶解田菁胶的制备及性能进行了研究。论文研究具有较大实用价值和一定理论意义。 论文系统研究了反应条件、产品结构和性能,论文较为系统深入,内容充实,逻辑性强,论文在实验设计和正交试验结果显示和处理方面具有新意。论文达到硕士论文要求。,0,1,0,1,0,0,0,0,1,0,0,1,0,0 +419,论文对晶圆定位视觉检测系统进行设计研究,选题具有一定的理论意义和重要的应用价值。 论文在对该领域国内外研究现状进行分析的基础上,主要开展了以下几方面工作: 1.设计并研发了一套新的晶圆视觉检测定位系统,实现了在划片机对晶圆进行切割之前晶圆的定位摆正工作; 2.设计了集图像采集、数据处理、机械运动以及信息显示于一体的晶圆在线定位摆正视觉检测系统,就系统的软硬件实现机制进行了分析; 3.详细阐述了基于机器视觉的晶圆定位摆正算法。 论文撰写条理清晰,层次分明,符合科技论文写作规范。论文既有理论分析,又有实验验证,取得了较好的效果。论文工作表明作者具有扎实的理论基础和系统的专业知识,有一定的独立从事科研工作的能力。 论文达到了硕士学位论文的要求,可以进行答辩。,0,1,0,0,1,1,1,0,0,1,1,0,0,0 +2622,论文对18篇文献的研究成果进行Meta分析,找到影响AD的主要危险因素,并利用logistic回归和SVM算法建立预测AD发病风险的模型,并取得较好的预测效果。论文选题具有实际意义,研究成果具有一定的应用价值,论文结构合理,内容较准确,语言较通顺达意,格式规范。达到硕士学位论文水平。论文存在的问题及不足之处:1)摘要写得不够简练。摘要以提供论文的内容梗概为目的,不加评论和补充解释,简明、确切地论述研究目的、原理和结论,具有相对独立性。2)英文缩写应该在第一次出现的地方给出英文全称。3)表4-6表明,在SVM模型中使用class_weight参数平衡样本后,只有召回率提高,但是作者说“预测效果整体上好于原始训练数据”,请解释原因。另外,在logistic回归中使用SMOTE过采样平衡样本,而在SVM中不采用了,原因是什么?,0,1,1,0,0,0,1,1,1,-1,0,1,0,0 +954,论文选题尚可。目前国家提倡三胎,儿童教育空间的相关研究对于提高整体儿童教育质量和国民素质具有一定的研究价值和意义。论文整体框架基本,逻辑有些混乱,基本研究对象界定不清晰,文献综述尚可,相关论述也基本到位,个别章节标题不到位,有待调整。实地调研欠缺,设计实践部分整体空间概况没有,针对性不明确,图纸不完整,工作量不够饱满。请补全设计实践的三视图。论文整体质量基本到达硕士研究生的论文水平,个别部分仍需调整完善。,0,1,1,-1,0,0,1,0,-1,-1,0,0,0,0 +1529,课题研究了变压器绕组热点温度监测方法,基于Ansys软件对电磁场,流体场和温度场进行了热点的仿真分析,搭建了热点温度监测平台的硬件设施和软件界面。最后通过实验拟合,得出了温度和波长之间的相关关系,具有较高的实用价值。 作者熟悉绕组热点的监测方法和现状,具有独立科研的能力,论文书写规范,语言表达清晰,应用光栅光纤的方向掌握准确。论文难易适中,工作量满足硕士论文要求。,1,1,0,0,0,1,1,1,0,0,0,0,0,0 +1123,本文从实际应用出发,研究了SF6/N2 混合气体的绝缘特性,设计了两种结构电极,搭建了SF6/N2间隙击穿与绝缘子沿面放电的试验平台,具有一定的理论及实际意义。本文参考了国内外大量研究文献,了解国内外动态,总结归纳客观、正确。 本文针对绝缘子长期运行过程中存在着温度梯度,应用有限元仿真软件建模,计算和分析了SF6/N2 混合气体中绝缘子温度分布规律。论文内容明确、具体、方案可行,具有一定的工程应用价值。 论文撰写观点正确,论据充分,结构条理,符合科技论文写作规范。论文表明研究生具有本学科领域一定的基础理论知识和科研水平,达到了硕士学位的学术水平。,0,1,1,0,1,1,1,0,1,0,0,1,0,0 +1872,论文针对层状金属材料的复合成形、层状复合材料炊具的拉深成型等问题,选用纯钛TA1和工业纯铁作为基体材料,采用直接轧制方法制备层状复合材料;结合有限元模拟(Deform软件)研究轧制压下率、轧制速度等对复合板界面结合强度的影响。同时,采用Dynaform软件对32寸平底锅的拉深成型进行模具设计及成型工艺参数优化,并根据所设计的模具及工艺参数进行复合板平底锅的拉深成型试验。论文在钛/铁复合板的制备工艺优化及复合板的工业应用等方面进行了有效可行的探索研究,对钛/铁层状复合材料的拓展应用具有一定的理论和实践指导意义。 论文研究目标明确、工作量较为饱满,数据分析基本合理,图表较为清晰,表明作者具有基本的理论基础、专业知识和科研能力。论文的写作方面存在较多的表述不准确、逻辑不清晰、格式不规范之处,建议修改后答辩。,0,0,0,1,0,0,-1,-1,-1,0,0,0,0,0 +2809,论文以“汽车制造核心企业兼并重组策略博弈”作为研究主题,采用演化博弈的方法,构建模型从政府和企业两个层面研究企业兼并重组策略选择问题,并且在研究企业之间的演化博弈时将政府不参与调控和政府参与调控两种情况进行对比分析,对参数进行赋值仿真,通过分析演化博弈的过程,得出了可验证的结论,最终从政府和企业两个层面提出产业调整下推动我国汽车制造核心企业兼并重组的对策建议。总体看来,论文选择符合企业管理的学科范畴,在中国产业结构调整升级及中国汽车产业大而不强的背景下,具有较强的现实意义。论文结构合理、逻辑思路清晰、观点表达较为准确、论证方法较为得当,并得出可验证结论,达到了企业管理硕士论文的水平和标准。但论文尚存不足之处:1.文献梳理较为薄弱,论文中大多数是对国内文献的梳理,国外相关文献的回顾与梳理较少,且部分文献与本文的研究主题联系不紧密;2.论文是进行的模拟条件下的仿真研究,并没有进行实际数据状态下的研究,这在一定程度上影响了结论的客观性和有效性。建议收集实际数据及案例,进行相关研究,弥补不足;3.论文的对策建议略显单薄,建议更多地从企业角度提出改进的策略与建议。,0,1,-1,0,0,0,0,0,1,1,0,0,0,0 +2861,"论文以香蕉存储过程中发生的果皮褐变现象为研究对象,从图像特征提取,褐变特性及机理,活性氧代谢变化,抗坏血酸处理等方面进行研究,选题具有一定的理论意义和实用价值。论文首先基于机器视觉的图像采集系统,确定了采集背景及条件,并用数学软件进行处理以获得高效、灵敏的检测方法;其次,探究了香蕉褐变过程中相关酶及氧活性物种的组成变化,并建立基于神经网络的数学模型预测,考察了模型优化参数;最后,探究了褐变产生的机理机制,同时考察了采用抗坏血酸进行处理的结果。作者了解本领域内国内外的研究进展和研究动态,论文内容完整,实验方案和技术路线合理,数据详实,结论可靠,有一定的创新性。论文写作层次清晰,论述清楚,图表格式正确,符合科技论文的写作规范。有以下问题建议作者注意和深入研究:1、实验密闭空间内,光照的影响?2、图2-9SOD活性变化过程中,第六天中活性增加?3、采用褐色面积的变化表示成熟与衰老,褐色深度的变化呢?4、图3-15验证R=0.98曲线拟合与输出的偏差较大?5、图3-18基于线性回归与二次多项式均不能很好预测SOD活性,其他模型如何?6、抗坏血酸的成本如何?是否会影响口感?7、抗坏血酸的影响因素考察?8、文中仍存在部分格式规范错误。例如,2.4.5中超氧阴离子,.OH为羟基自由基,P25中CAT活改为CAT活性进行预测,参考文献格式要统一例如[40],[43],[52],[63]等。建议作者认真修改。",0,1,0,1,0,0,-1,1,0,1,1,1,0,0 +998,作者写作思路基本清晰,论文结构设计基本合理,能够聚焦重点研究问题展开研究,基本掌握了数学教育学的基础理论,习得了数学教育学的研究方法,基本具备独立从事数学教学研究的努力,作者在论文中介绍了自己的一些新发现,这些发现对数学教师如何有效进行课堂教学导入有一定的借鉴和启发。作者在论文写作过程中,能够有意识地引用相关理论论证观点、进行说理。论文语句基本通顺,语意基本清晰,文字、图表基本准确规范。总体上看,符合硕士学位论文要求。,0,0,0,0,1,1,1,1,1,0,1,0,0,0 +230,该论文对网络流量的识别问题进行了方法研究,分析了已有方法的可改进之处,对流量识别的算法提出基于混合特征的流量特征选择方法以及优化的基于支持向量机的多类分类模型等进行了研究,并通过设计相关的实验以说明所提出方法的有效性,选题具有一定的实用价值,实验结果表明论文所提方法具有一定的优化效果,表明作者能够掌握相关的学科知识并应用于实际问题的求解。,0,1,0,0,1,1,0,0,0,0,1,0,0,0 +2407,产后出血严重危及产妇生命安全,研究其发生的影响因素及其控制具有重大现实意义,本文以柳州市工人医院的部分产妇数据为研究对象,利用Lasso-Logistic回归、随机森林、支持向量机三种模型采用训练集和预测集两类样本进行研究,并采用7种评价指标对模型拟合效果进行评价,从而选择最优的预测模型。论文整体工作量饱满,研究逻辑清晰,结构合理,数据来源可靠,方法正确。总体上达到了硕士学位论文的要求。论文不足主要有:1.目录不应该出现目录中;2.目录中出现两个4.4,请对照修改;3.目录3.2文献纳入与排除标应该为文献纳入与排除标准;4.编排不够规范,如第22页出现较大多的空行;5.第57页确定指标中,文化程度低应该为文化程度;6.表4-1中,因素民族和因素血型赋值方式值得商榷,这里应该使用虚拟变量模式,对民族而言,有7个取值,需要构造6个虚拟变量,而血型有4个取值,需要构造3个虚拟变量;7.实践对策内容几乎没有涉及,请在结论中给予体现;8.论文主要通过模型研究产后出血的影响因素,因此文题目信息冗余,建议修改为:影响产后出血风险因素的预警模型研究。,0,1,0,1,0,0,-1,0,1,1,0,0,0,0 +191,地热是一种具有广阔前景的清洁可再生能源,其中分布较普遍、高热储温度的干热岩型地热资源更具开发潜力与前景。干热岩地热资源开发主要是从低渗透率、低孔隙度的岩层中提取热量,但是干热岩通常埋置在地表以下1000m以上环境温度高达500℃的高地应力环境中。干热岩地热资源开发涉及典型深部岩石热力学中高温高压环境下岩石力学性能等基础理论。硕士学位论文《高温高压下花岗岩力学特性研究》基于岩石力学基本原理和试验研究,针对花岗岩,通过应用实时高温真三轴系统对高温与高地应力共同作用下的花岗岩物理力学性能及微观结构进行研究。主要开展了花岗岩实时高温三轴试验研究、实时高温常规三轴试验后花岗岩断口微观形貌及断口形成机制研究。论文选题有一定的科学理论研究及工程推广应用价值。论文技术路线科学合理、研究方法合适,工作量合适,研究内容相对较完整,论文试验数据结果总体合理,论文研究结果基本符合实际和一般规律。论文研究在采用中国科学院武汉岩土力学研究所自主研制的实时高温真三轴试验系统,对实时高温与三维应力共同作用下花岗岩的全应力应变曲线、试样破坏形态、力学特性及裂纹拓展研究方面有一定创新和特色。论文写作总体较规范、语言表述较准确,论文逻辑性较强,论文图表和参考文献引用较规范,对国内外相关研究现状及进展情况掌握较好。论文作者已掌握了本学科专业基础理论及专业知识,已具备一定独立开展科学研究的能力。综上,该论文已达到国家相关学科专业学术型硕士学位论文的要求,论文综合评价为良好,综合评分83分,同意该论文作者参加硕士学位论文答辩。 意见和建议: 1.补充论文第三章花岗岩实时高温常规三轴试验全应力应变曲线中各应变符号ε1、ε2、ε3和εv的物理意义; 2.论文第三章研究指出“...单轴状态下的温度阈值在 200 与 300℃之间...”;后续有条件进一步深入研究并确定花岗岩的岩石温度阈值; 3.论文第三章虽然开展了一定数量的花岗岩试样高温常规三轴试验并测得相应的全应力应变曲线,但未基于试验结果总结提出相应花岗岩高温常规三轴本构关系,是该论文的一项缺憾; 4.限于现有试验测试技术,论文对实时高温常规三轴试验破坏后的花岗岩试样的矿物成分构成、断口形貌与形成机制进行了研究;但矿物成分的测试结果是高温冷却至常温后的结果,花岗岩常温状态的矿物成分与高温状态的矿物成分有无差别?仍需进一步深入研究; 5.论文大部分研究工作是基于试验研究的理论分析,论文关于高温高压状态下花岗岩本构关系、力学特性的理论建模及相关研究的深度仍需进一步提升。,0,0,1,1,1,0,1,1,1,0,0,1,0,0 +1682,论文通过对PMSG转矩脉动的产生来源进行分析,从抑制气动转矩脉动和电磁转矩脉动两方面来实现PMSG转矩脉动的有效抑制。根据转速波动与气动转矩脉动关系的数学模型,提出了基于转速测量的气动转矩脉动提取模块,并通过分析气动转矩的数学模型,确定了由调节桨距角来抑制气动转矩脉动的思路,提出了基于方位角权数分配的独立变桨距控制,并利用仿真验证了基于转速测量的气动转矩脉动提取模块的可行性,通过仿真验证基于方位角权数分配的独立变桨距控制抑制气动转矩脉动的有效性。作者在对PMSG谐波数学模型和谐波检测研究分析的基础上,提出了基于同步旋转坐标系的谐波检测算法,并对其中的滤波装置进行了改进;通过对比滤波装置改进后的仿真结果表明了采用RLS自适应滤波器+均值滤波的检测系统能够更加快速和准确的获得谐波变量。针对电磁转矩脉动的抑制问题,从谐波方面入手,一是通过设计谐波补偿模块,计算出补偿电压来消除谐波中的5、7次分量;另一方面是对变流器的调制方法进行选择和优化,提出了可实现中点电位平衡的SVPWM技术和SHEPWM技术;在此基础上加入谐波补偿模块后,确实起到了抑制转矩脉动的效果,证明了方法的有效性。,0,0,0,0,0,0,0,0,0,1,0,0,0,0 +1204,本文针对安全套电干检机工作过程,设计了一套基于机器视觉的安全套自动上料装置。(1)通过对转盘式与链式两种干法电检机工作原理的研究,给出了安全套自动上料装置的系统方案。(2)给出了工作流程。(3)针对工业相机采集到的安全套图像存在噪声的问题,使用自适应滤波核的中值滤波加以解决。(4)给出了疑似特征区域判定方法,实现特征区域位置定位。(5)基于Python+OpenCV+PyQt 在树莓派环境下编写特征区域识别软件,通过通讯协议将安全套特征位置信息发送至PLC。课题具有实用价值,工作量较饱满,理论创新性一般。同意修改后直接答辩。,0,1,0,1,0,0,0,0,0,0,0,-1,0,0 +2292,本篇论文社会交换理论和资源保存理论为基础,探索上级无礼行为对员工组织公民行为的影响。在收集相关学术文献的基础上,运用文献研究、问卷调查和实证分析等方法,结合相关理论阐述了上级无礼行为对员工组织公民行为的作用机制,并提出研究假设,构建出以内部人身份认知作为中介变量,员工宽恕作为调节变量的研究模型。选取部分地区的企业员工为研究样本进行数据收集,并使用统计工具进行数据分析、验证假设,得出研究结论。该论文选题具有一定的理论意义和实践意义,结构层次清楚,逻辑性较强。该论文技术路线比较清晰,使用的研究方法较为准确,数据基本可靠,结论具有一定的说服力。不足之处:1、问卷设计与变量测量中对于量表内容的选取没有进行充分阐述,建议补充。2、对于量表的效度检验中只进行了区分效度的验证,建议补充结构效度、聚敛效度。3、探索性因子分析和验证性因子分析不能用一套数据,如果分析过程中不是一套数据建议在数据收集阶段说明一下。4、研究结论和管理启示的论述不够充分,建议补充。,0,1,0,0,0,0,0,-1,1,0,1,1,0,0 +1657,论文面向Al-Si系合金,采用金属型铸造工艺和热处理工艺方法,研究了Al-Si合金中添加稀土Er元素、Cu元素和Cu-Er复合元素对低温环境下合金综合性能的影响,以改善合金显微组织,提升合金的强韧性。论文选题难度适中,较好地综述了国内外研究动态,研究结果对于进一步开展工作具有指导意义,论文结构合理,层次分明,文字通顺,图表规范,观点基本正确。,0,1,1,0,0,0,1,1,1,0,0,1,0,0 +797,在盾构施工过程中,更换刀具是一项比较常见的作业,尤其在地质复杂,刀具磨损严重的情况下,换刀的频率相对较高,目前,盾构机换刀一般采用人工换刀,作业人员必须进入人舱进行作业,作业强度大,作业空间受限,并且操作过程复杂,所以通常在换刀作业上会消耗大量的时间,严重影响工作效率。本文选题研究盾构机在实际施工过程中的开舱换刀作业效率问题,对增加作业人员安全性、提高工作效率,具有非常重要的现实意义。 作者查阅了大量国内外相关文献,以某常带压换刀实验台为平台,对换刀作业人员的作业姿势、工作负荷等进行研究,所做的工作和取得的主要成果如下: 1、通过详细调研了解盾构换刀作业的实际情况,在掌握其工作原理和详细工作流程的基础上,对换刀涉及的相关设备进行了三维建模,结合仿真分析,运用工艺流程分析的方法,绘制了标准换刀工艺流程,找出了换刀作业存在的不足以及换刀注意事项; 2、以常带压换刀实验台为平台,招募了4名熟练掌握盾构换刀流程的工作人员,分两组进行了两次换刀实验,通过实验人员佩戴的FAB动作捕捉传感器,实时采集了换刀作业数据,包括动作数据和工作负荷的力学数据,为换刀作业的量化研究提供有力保证; 3、应用UG软件建立了盾构刀盘、刀具以及换刀舱的三维静态模型,以工效学软件 JACK 为仿真平台,结合 FAB 动作捕捉采集的换刀作业数据,对整个盾构机换刀作业流程进行动态模拟仿真; 4、运用 TAT 分析系统,针对上述动态仿真模型进行分析,分别获得了换刀作业人员的工作时间、力量负荷、新陈代谢以及姿势负荷的大小,建立了工作负荷数学模型,计算得出作业人员的工作负荷指数值,对工作负荷进行了分析评估。 论文成果表明,作者掌握了本专业的基础理论和较系统的专业知识,具备从事科研工作和独立担负专门技术工作的能力。论文论述清楚,逻辑性强,语言流畅,格式规范。根据国家学位条例规定,该论文达到了硕士学位论文水平。,0,1,1,0,1,1,1,1,1,0,0,0,0,0 +2696,论文选题“低速自动驾驶汽车横向控制算法研究”,为智能驾驶的轨迹跟踪控制提供技术支持。研究搭建了模型预测控制器、前馈LQR控制器和PurePursuit控制器并完成软件在环仿真,将PurePursuit控制器搭载于实车进行了验证分析,研究成果支持低速条件下的主流算法控制器的轨迹跟踪控制问题。论文思路清晰、图文并茂、论证聚焦,反映论文作者扎实的理论基础和综合运用专业知识的能力。希望论文在以下2个方面细化:1、实际交通场景的系统描述,深入考虑车辆低速自动驾驶的多因素制约和多目标约束;2、研究建立的控制算法与相关已有控制算法的对比分析,体现研究的特色和优越性。,0,0,0,0,1,0,0,0,1,0,0,0,0,0 +2617,论文的围绕着“习近平总书记关于底线思维重要论述的哲学基础这一问题”开展研究,选题有较强的学理价值,运用哲学的视角体现了作者较好的理论基础。研究问题指向比较清晰,内容的逻辑性较好,方法得当,篇章结构较为完整,行文流畅。论文在以下方面可以进一步完善:1.摘要的撰写不是很符合学术规范。第一段感觉引言的痕迹比较重。接下来分成几个部分论述显得比较生硬。第一段和第二代过渡也比较刻板。2.文献综述方面,首先概念界定就是概念界定,但是标题写思想内涵研究。而且文献研究不必把概念的界定作为文献基础。概念在第二章不是有专门的说明吗?因此这两部分的处理比较不妥。其次,国外研究现状的撰写,对马克思主义中国化选题的论文来说,是撰写的难点。但是从本文的处理方式上,选用国外领导人的评价作为文献内容,显然不是很合适。可以从已经翻译成多个版本的《习近平总书记治国理政中的底线思维》中来分析可能更适合。最后,一些表述再斟酌:如p4的党对底线思维的继承发展研究。“党”的表述太不研究,作为主体也显得不当。3.行文方面:“的,地”经常使用不清,存在语法问题。如有目的有计划地区改造世界;沉着冷静的应对,等等。如P18也存在断句:底线思维与忧患意识、规矩意识和风险意识。首先……总的说来,文章基本达到了基本达到了硕士学位论文的水平,同意答辩。,0,0,-1,0,0,0,-1,-1,1,1,0,0,0,0 +2077,玄武岩纤维粉煤灰混凝土具备抗折强度高、抗裂性能好、韧性强等良好的力学特性,论文作者通过力学性能正交试验、海水腐蚀和海水腐蚀条件下的冻融正交试验研究,研究了粉煤灰掺量、玄武岩纤维掺量、玄武岩纤维长度、减水剂掺量对玄武岩纤维粉煤灰混凝土力学性能和耐久性能的影响,论文选题有理论和应用价值。 论文条理清晰,结构合理,结论正确。论文表明,作者已掌握了本学科理论较为坚实的理论基础和系统的专门知识,论文已达到硕士论文水平,同意进行论文答辩。,0,1,0,0,1,1,0,1,1,0,1,0,0,0 +1616,论文构建了FOF资产配置评价体系,回测期间的净值走势图,得到评价指标回测数值,加入了对大类资产配置的量化分析,并对结果进行了对比分析,结论对于投资者和资金管理人具有一定的参考价值和实用意义。但在方法的创新上还有待进一步提高,同时在方法的使用上需要进一步加强说明,更好的体现学术性,同时需要注意学术的规范和文献的梳理分析。,0,0,-1,0,0,0,-1,0,0,-1,1,-1,0,0 +1857,论文在分析国内外混合气体及其电击穿研究现状的基础上,开展SF6 /CO2 混合气体冷态及热态下击穿特性的研究, 选题具有一定的理论意义和实际工程应用价值。 论文工作的主要成果为: 1. 建立了一种计算击穿电压的气体放电模型,采用有限元-通量校正传输法求解特定放电模型下的击穿电压,并得到验证。 2. 计算了冷态SF6/CO2混合气体击穿特性,得到不同因素对混合气体击穿的影响规律。 3. 计算了SF6/CO2混合气体的热态击穿特性,得到了临界击穿场强随着温度、压强及混合气体中SF6气体含量的变化规律。 论文写作规范,语句通顺,逻辑性较好。研究工作表明,作者掌握了本学科的基础理论知识,并具有一定的应用能力。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2871,论文应用博弈理论研究了考虑企业社会责任及政府补贴的闭环供应链决策与协调问题,具有较强的理论意义与现实价值,达到硕士学位论文水平,但有仍存在一些问题需要商榷与改正:(1)创新点凝练不足,此处呈现较多的研究内容陈述,与研究内容部分重复。(2)论文部分结构需要调整,如表3-1的符号说明应该放在“模型描述”部分,研究假设中的部分符号出现在符号说明之前,影响阅读效果,且研究假设中有出现了大段的文献综述内容。(3)第三章和第四章的性质和命题描述需要清晰、简洁、明确的语言凝练,而不应是数学符号和公式的堆砌。(4)第四章的协调模型似乎缺少对应之前的敏感性图形分析内容,且论文主体章节缺少“本章小结”。(5)研究结论中掺杂管理启示,建议两者分别阐释。,0,0,0,0,0,0,0,-1,-1,0,0,-1,0,0 +802,在物品生产制造和流通领域中,低效率的物流过程占据很大的商品成本,本课题就医药行业中药物存储物流系统的效率进行分析研究,对目前大量存在的物流系统都有借鉴和提升的意义。本文以某药品仓库的仓储物流为实列,详细分析了现存的仓库布局、物流设备以及管理体系的工作效率,指出了这套体系的瓶颈所在,在不做硬件设备大量改动的情况下,采用AGV小车并替代RGV小车,重新布局进出库的路径,使进出库输送路径变短,从而提升输送小车的工作效率。根据药品的仓储、物流特点,本文分析了各类药品的仓储属性(如药品保质期、出入频次、周期规律等),用加权处理实现合理的仓储货位分配,提高出入库的效率。并通过相关理论算法来确定最有的方案,对药品进行定量化的编号分配。本文对药品仓储物流系统建立的数学模型和采用的算法,通过仿真验证了其有效性,其意义在于这套数学模型的算法对于其他物品的仓储物流和调度能够借鉴和推广应用,从而降低物品的流通成本。 本课题的研究需要多方面的学科知识,涉及仓储系统的结构,集成建模的数学理论和控制算法策略等的正确应用。论文体现了在数据分析,建立数学模型等方面具有相关理论计算工具应用能力。论文章节安排合理,论述条理、图表清晰,数据正确,论述的问题由浅入深,逻辑条理清晰。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +958,论文选择作者毕业音乐会中演唱的曲目,那波里民歌《请你告诉她》作为研究对象,展开了艺术分析和演唱处理阐述。文章从自身艺术实践出发,运用一些相关专业理论知识和,研究内容,符合专业学位的要求。文章分三章,第一章是绪论,第二章歌曲的介绍分析,最后是歌曲的演唱处理。文章运用的概念性还是不严谨,科研能力比较弱,文章创新性无从体现。论文做了一些探索,但是改进和提升空间还比较大,建议进一步深入研究,推动研究意义的挖掘。,0,0,0,0,0,-1,0,0,0,0,0,-1,-1,-1 +1331,该论文选题具有很强的实用性和科学性,研究成果具用一定的理论意义和实用价值。从论文内容可以看出,作者具有一定独立从事科研工作的能力,科研工作量较为饱满,对专业理论掌握的相对较好。但在论文的规范性和文字表达能力方面还不够科学和严谨,希望能够进一步地提高和锻炼。基本上达到了研究生培养的要求,同意在论文修改后进行答辩。,0,1,0,1,1,1,-1,-1,0,0,1,0,0,0 +2175,作者的论文题目是“唯物史观视域下大学生劳动观培育研究”,但整体感觉对唯物史观概念的了解不是很深入通透,运用起来有点局促、牵强、别扭,理论思辨和语言陈述上有点粗。选题有一定的现实意义,当代大学生劳动观上确实存在问题,结合问卷调查展开研究,也是一种从实际出发的研究方法。整体构思上不是太理想,材料收集,格式规范上基本可以。,0,1,0,0,-1,0,1,-1,0,0,0,0,0,0 +2433,该论文对视皮层神经元网络机制进行了研究,通过将这些机制引入到轮廓检测神经网络的建模中,提出了模拟视皮层神经元多级交互式网络机制和平行分级网络机制,两种轮廓检测模型。其中,针对模拟视皮层神经元多级交互式网络机制轮廓检测模型,设计了局部特征编码模块,设计了多级交互模块,利用调制特征对各个视觉层级进行了优化和整合,得到了输出轮廓。针对基于平行分级网络机制的轮廓检测模型,建立了卷积模型,搭建了平行分级的轻量化编码网络。针对两种模型均采用公开数据集进行了实验验证,获得了很好的效果。该论文的选题在理论研究和实际应用上都具备很高的研究价值,从文献综述上可以看出作者对本学科及相关学科领域国内外发展状况和学术动态具备十分充分的了解,论文行文流畅,数据翔实,撰写规范,表达准确,体现出作者优秀的理论基础,以及很好的分析问题和解决问题的能力。论文的不足之处在于,没有考虑视觉皮层的同步化整合以及多通道平行处理等机制;对视觉系统的模拟也还不够全面。综上,该论文已经达到优秀硕士学位论文的水平。,0,0,0,0,1,1,0,1,1,-1,0,0,0,0 +2862,论文以携程及途牛两家在线旅游上市公司为例,运用GARCH修正的B-S期权定价模型,考虑疫情对在线旅游上市公司价值影响因素的基础上,分别对疫情前、假设不发生疫情和疫情之后等三种情况进行公司价值评估。论文的选题有一定的应用价值和现实意义,论文写作规范,理论基础较扎实,使用方法适当,论证充分,符合专业特点。该论文达到硕士学位论文水平,但存在如下不足和需要修改完善之处:(1)相关研究综述中,对于运用实物期权法对线旅游公司价值评估的研究文献还有待于补充完善。比如,文中引用的估值偏离度分析的方法,在相关研究文献未提及。(2)采用GARCH模型来预测股票日波动率,并考虑疫情影响,选择携程和途牛两家公司进行价值评估,得到的结论基本一致(只是价值大小的差异,市场贬值幅度差不多30%左右),那么,对于不同战略的两家公司的价值贬值的差异所在?(3)文章在计算的携程公司的评估价值与每股市值的偏离度约16%是否合理(基准日2019年12月31日)?而途牛的偏离度仅为2.16%;根据历史数据,2020年不发生疫情的年波动率-携程为28.73%、途牛为60%,论文未做解释和原因分析。,0,1,-1,0,0,0,0,0,1,0,0,0,0,0 +3010,在本论文中,作者以六轴焊接机器人ABB-IRB2600为研究对象,对其运动学与空间轨迹规划进行了模拟仿真研究,验证了算法在轨迹规划方面的应用,并证实了研究结果的可靠性,促进了六轴焊接机器人轨迹规划的实际应用。课题研究具有一定的工程应用价值与理论深度,研究方法得当,能够体现一定的科研能力,研究结果具有一定的理论与技术创新性,论文写作具有逻辑性、符合规范、格式基本正确。论文存在以下需要认真修改的问题:(1)英文摘要中,语法、陈述方面的错误较多;(2)4.3.1章节的第1段的第1行,存在表述错误,请修改,其他诸如此类的地方也要认真修改;(3)定性陈述的结果太多,应增加仿真结果的定量陈述与分析,是获取的结论更加可信;(4)不同算法下的最优解、平均解、最差解等应给出明确的横向比较,以说明哥哥算法的优劣。(5)部分参考文献的格式不规范。,0,1,0,0,0,0,-1,-1,1,-1,0,1,0,0 +1084,本论文通过脑血流阻抗的测量和特征分析反映脑神经活动,是一种比较有前景的测量方法。作者首先设计了大脑功能活动诱发实验,提取分类模型的数据库,然后利用SVM和ID-CNN方法建立脑阻抗识别模型,实现不同状态下脑阻抗信号分类评估,最后对方法进行验证,整个论文有理有据,仿真和实验相结合,有理有据,也有一定的深度,同意作者答辩。,0,1,0,0,0,0,0,0,1,0,0,0,1,0 +1149,本文结合内部控制相关理论,以PJ公司为例,分析了PJ公司内部控制的现状,并结合模糊分析法对该公司的内部控制做出了评价。随后该文分析了PJ公司内部控制的实际问题,并提出了针对性的建议。本文在选题上具有一定的实践意义,论文在结构框架上也较为合理,但在内容和相关论证上仍然存在一定的问题,具体请见修改建议。综合来看,本文需要进一步认真修改才能满足硕士学位论文的要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +1686,论文通过进行室内试验,探究了赤泥掺量、冻融次数等对赤泥—水泥复合土的力学特性及疲劳特性的影响规律。论文选题对于缓解赤泥给环境带来的压力具有重要的意义,文献综述较全面,作者开展了大量的试验,并综合采用了正交设计法、微观试验法进行研究,反映出作者掌握了一定的专业理论知识,具有较好的独立从事科研工作的能力;论文写作较为规范。,0,1,1,1,1,1,1,0,0,0,0,0,0,0 +18,《检察机关提起行政公益诉讼制度研究》一文,对我国目前检察机关提起行政公益诉讼制度的缺陷及完善等问题,进行比较全面而系统的研究,对于促进我国检察机关提起行政公益诉讼制度的发展,具有一定的理论意义和实践价值。 论文主要探讨检察机关提起行政公益诉讼的意义、相关理论基础、现实中存在的问题、域外行政公益诉讼制度等,并提出了一些自己的观点,如在《行政诉讼法》中专章规定检察机关提起诉讼、将检察机关的主体地位明确为行政公诉人、扩大检察机关提出行政公益诉讼的受案范围、完善检察机关内部交流和与外部的交流机制等,反映出作者具有比较扎实的专业功底和比较合理的知识结构,能够熟练运用所学知识开展研究。 在形式方面,论文中心论题明确,论证方式比较合理,引证资料比较丰富,引证格式比较规范,且论文结构清楚,层次分明,反映出作者具有较强的逻辑思维能力和论文写作能力。 总体而言,此论文达到了硕士学位论文水平。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +439,论文将嵌入式系统与ECT技术相结合,研究了基于LinuxLinuxLinux的嵌入式ECT系统。论文主要研究工作如下: 一、将交流激励型C/V转换电路应用在投影数据采集系统。采用数字正交解调方案,简化了数据处理过程,增强了采集系统的精确度。建立了嵌入式交叉编译环境,定制裁剪出LinuxLinux系统。在人机交互界面程序中利用多线程集成了串口通信测试、数据采集控制归一化处理图像重建等功能。 二、利用多物理场耦合软件Comsol Multiphysics建立ECT传感器的模型,建立了两相流中常见环状、核心传感器的模型,建立两相流中常见环状、核心传感器的模型,建立两相流中常见环状、核心泡状流和层的仿真模型,泡状流和层的仿真模型,摆脱了实验装备的限制。并在嵌入式图像重建单元中利用LBP算法对四种流型进行静态图像重建,取得了较为理想的效果。 三、利用填满石英砂PVC棒放入传感器中模拟核心流分布通,完成了动态实验。实验测试表明,基于LBP算法的嵌入式系统具有实时成像能力,够实时检测出传感器高介电常数区域的位置。 论文的立题和研究对推动电容层析成像技术的研究和技术发展具有实践意义。而论文提出的在投影数据采集系统中用了信噪比高、抗干扰能力强的交流激励型C/V转换电路的方法较为有效。论文写作规范,论述清晰,图表能充分说明问题和结果。论文达到工学硕士学位论文要求。表明论文作者具有良好的电容层析成像技术理论和科研实践能力。,0,0,0,0,1,1,1,1,0,1,0,1,0,0 +413,论文对查阅了大量国内外基于时间常数的热电偶分拣相关文献,针对热电偶时间常数检测并按照时间常数分拣这一重要环节的自动化过程,利用机电伺服系统作为载体,设计了基于时间常数的热电偶分拣系统。 论文对基于时间常数的热电偶分拣系统进行机械部分结构设计,并且需要对气动元件、机械硬件和伺服电机进行选型,完成系统机械硬件整体设计,设计出工艺流程。设计基于时间常数的热电偶分拣系统,包括电气控制部分。对控制器、驱动器进行选型和电路连接,设计控制器程序和控制界面程序,完成系统内部软件的整体设计。对已经搭建完成的热电偶分拣系统进行控制,寻找优化控制策略;对系统进行调试,并且验证控制策略的可行性与稳定性、系统检测热电偶时间常数的可行性、热电偶放置的位置准确性。 论文选题明确,研究成果具有较好的现实意义及较高实用价值。论文写作较规范,层次清晰,结构完整,逻辑关系合理,语言表述准确。论文工作量满足硕士毕业论文的要求;论文学术观点科学、严谨,作者具备相对较强的创新工作能力。论文达到硕士学位论文的水平。,0,1,0,1,0,0,1,1,1,0,1,1,0,1 +334,高速电机本身转速高,具有功率密度大、体积小等优点,使其在飞轮储能、循环制冷系统、高速数控机床等场合有良好的应 用前景。论文以一台 24kW、20000r/min 的高速永磁同步电动机为研究对象,对它的 电磁设计、转子强度、损耗计算与温度场计算这些方面来进行分析,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,建议修改后参加答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +1051,DC-DC转换器是一类应用广泛的电源管理芯片,论文对基于峰值电流控制模式的DC-DC转换器进行设计研究,具有较好的应用价值,符合硕士论文选题要求。 论文在介绍降压式DC-DC转换器的拓扑结构、工作模式、调制模式、控制模式等知识的基础上,给出DC-DC转换器芯片的系统级设计,包括系统框图、引脚定义、电特性指标、功能描述、典型应用电路等,对系统的关键模块进行了设计和仿真,包括带隙基准、片内工作电源、功率管驱动、电流检测电路、振荡器与斜坡补偿电路、软启动和过流保护电路等模块,论文设计了电流采样电路以减小效率损失,设计了片内工作电源、电平迁移电路和BUFF电路以降低系统功耗和开关损耗,设计了软启动模块以实现快速稳定的启动,设计了欠压、过流等保护模块以提高芯片的可靠性,论文进行了芯片的仿真验证和版图设计,仿真结果表明芯片在转换效率、输出电压纹波、输出电压范围等方面具有较好的性能指标。研究结果反映了作者较好地掌握了学科基础知识并具有一定的实际应用能力,论文文字较为流畅、条理清晰、符合科技论文写作要求,达到硕士学位论文水平,同意作者参加硕士论文答辩。,0,1,0,0,1,0,0,1,1,0,0,0,0,0 +3020,针对脑卒中患者的下肢和目前的研究现状,提出了一种下肢康复机器人,研制了面向脑卒中前期卧床患者下肢康复机器人平台,通过对人体下肢各个关节的生理结构分析,结合运动特征,建立下肢骨骼简化模型。根据康复治疗师的手法分析、治疗师和患者的交互。提出下肢康复机器人的机构方案,对机器人的结构进行详细计算和设计,基于Solidworks/Simulation进行应力应变分析和关键零部件行运动学和动力学分析,完成整机设计和加工装配。采用主动训练、被动训练和健患侧结合训练针对不同康复期的患者,使用C++语言在C++Builder平台上进行人机交互界面程序的编写有效解决卧床患者得不到康复治疗的问题。实验表明,本文所提出的康复机器人具有良好的机械性能和控制性能,能有效缓解康复治疗师紧缺的社会现状。论文工作量饱满,格式规范,逻辑性强,达到硕士学位论文水平,同意参加答辩。,0,0,0,1,0,0,1,0,1,0,0,0,0,0 +3026,智能网联汽车爆胎动力学模型及稳定性控制研究具有一定的理论意义和实际价值,论文针对汽车爆胎工况下,智能网络汽车的稳定性控制方法进行研究,主要以提高爆胎车辆轨迹保持能力为目标,就爆胎轮胎模型、整车爆胎模型、爆胎车辆轨迹保持三方面展开了一定的研究。具体选择Unitire轮胎模型,采用Simulink和Carsim进行联合仿真,在车辆直行与转弯两种工况下,提出一种基于FPID的纠偏算法,仿真结果能够有效改变爆胎车辆的偏航距离,使爆胎车辆迅速纠偏至目标轨迹。整体上,论文采用Simulink和Carsim联合仿真的研究是常用方法,文中对四种工况下轮胎侧向力的变化情况分析不足,用FPID对爆胎车辆控制只考虑了方向盘转角,没有纵向力的联合控制方法,控制策略不够理想。另外论文题目是以智能网联汽车为对象,智能汽车的代表性技术在爆胎控制上的体现还不明显,因为胎压监测也可用在非智能汽车。论文的研究对解决偏航问题有一定的效果,但论文也存在文字表达不准确的地方,存在论述上不严密的问题,修改后能达到硕士学位论文的水平。部分问题:1.主要的简称TPMS未及时解释。2.P47图4-3下前轮侧偏角表示冲突,前轮转向角与后面的表示不一致。3.P50图4-15传动系统表示为四轮驱动传动与前面整车模型为前轮驱动不符。4.四个工况结果导致车辆偏航,但是为什么图4-21、图4-23、图4-27、图4-29中没有表示轮胎侧向力的变化情况?5.对爆胎车辆纠偏的控制策略研究为什么没有考虑方向盘转角和制动力的联合控制策略?,0,1,0,0,0,0,0,-1,-1,-1,0,0,0,0 +656,论文总体是不错与可行的。论文是分析和讨论施工企业的预算控制问题。论文通过分析 B 公司 L 项目预算控制实施的实际情况,结合施工项目成本特点来对其项目预算控制作针对性分析,从项目预算控制目标制定、预算编制、预算执行、预算考核四个预算控制流程展开,结合工程造价理论和委托代理理论,在公司战略管理的角度,通过分析 L 项目预算控制的现状,发现其在预算控制的过程中存在预算控制目标制定较为笼统、预算编制依据不准,内容不全、实际成本超支、施工进度延缓、预算考核对象不明确及考核指标缺失的问题。为此引入标杆值法、多方联合确定基数法和挣值法,同时采取科学的预算考核措施去解决 L 项目预算控制过程中出现的问题。通过研究使公司对同类型项目的预算控制得以借鉴,帮助公司突破发展瓶颈,提升公司的经营效益。 综观全文,论文立题新颖,符合我国施工企业预算控制实际,有一定的理论创新性和实践指导性。论文收集资料扎实,充分,文献综述翔实,论述比较流畅,清晰,文理通顺,层次分明。尤其是论文所运用的主要研究方法--预算控制流程与进度控制方法,这种在施工企业预算控制中创新的研究方法,该生也掌握得比较熟练。论文得出的结论和建议对我国施工企业预算控制的改进和发展提供了一定理论及现实依据。总体而言,论文表明作者通过研究生阶段的学习,具备一定的理论基础知识和一定的科研实践能力,论文达到硕士毕业水平,可予答辩后通过。,0,1,0,0,1,0,0,1,1,1,1,1,0,0 +2570,航空发动机和燃气轮机的部件长时间服役于高热负荷、高机械负荷环境,需要具备优异的耐高温能力,热障涂层技术可有效地提高热端部件的服役温度并延长热端部件的使用寿命。论文选题具有较大的理论价值和实际应用价值。论文在综述了热障涂层材料、制备工艺及其组织相结构等的研究现状的基础上,分析了H2对喷涂粉末的理化状态以及沉积效率的影响规律;采用先进的热障涂层制备技术PS-PVD工艺,优化等离子气体组分,制备了热障涂层;开展了等离子射流特性分析,获得了等离子射流表征、涂层微区硬度及弹性模量;并借助粒子冲蚀实验和热震性能测试,分析了涂层在服役过程中的失效形式以及失效机制。论文运用的理论知识、研究方法和实验手段符合实际情况,理论论证较严密,实验设计较合理,方法和数据较为正确可靠。反映出作者较好地掌握了基础理论和专业知识,反映出作者具有独立从事科研工作的能力。该论文思路清晰,结构严谨,分析合理,逻辑性较强,体现了论文作者具备较强的基本知识运用能和科研能力,论文写作较规范,理论深度符合硕士毕业要求。为进一步提升论文质量,对论文修改有如下建议:1.摘要及关键词的文字不够简练,应当继续凝练,使之逻辑清晰、层次分明;2.英文摘要软件翻译痕迹明显,语言过于汉语化;3.图片格式不符合学术论文规范,字体大小与正文不协调;图中文字说明尽量采用中文等,图名中有漏字错字如图2-4,图4-6缺少比例尺;4.中文排版需统一一致,字符间距,多处字符格式和间距需调整,P48数字格式不规范;5.文章比较系统的分析了涂层本身的性能,但是热障涂层与基体的结合强度及其物理性能适配性缺少相应分析,论文应加以说明,这是影响涂层寿命的关键因素之一。,0,0,0,0,1,1,1,0,1,1,0,0,0,0 +143,本文以差动式磁悬浮平台为研究对象,以差动式磁悬浮平台的悬浮气隙达到稳定、准确悬浮为控制要求,采用偏置电流控制策略来对差动式磁悬浮平台的控制器进行设计,仿真过程中对悬浮气隙的准确性、快速性和鲁棒性进行了研究,如果能进行试验验证就更好了。全文研究内容表述清晰,顺畅,图表和公式较规范,存在少量错别字和标点问题。,0,0,0,0,0,0,-1,1,0,-1,0,0,0,0 +1748,论文研究风对风电机组齿轮箱传动系统的影响,选题具有较好地工程应用研究参考价值。作者综合考虑各种因素的影响,建立了风电机组高速级齿轮传动系统动力学模型,考虑到随机扰动,建立了系统随机动力学模型,通过模拟实际风速和叶片质量不平衡,分析了其对齿轮传动系统动态特性的影响,并建立了两种不同齿轮磨损模型,对风机机组齿轮箱工况监测与优化提供一定的参考依据。论文撰写规范、图表清晰,文字通顺,工作量达到硕士水平。论文表明作者具有本专业硕士生应掌握的基础理论知识和专业知识。,0,1,0,1,1,1,1,0,0,0,0,1,0,0 +2660,论文进行了工程钢圈的有限元模型建立和弯曲疲劳静力学分析计算,通过钢圈材料的S-N曲线修正,分析计算了钢圈的结构疲劳寿命。通过有限元疲劳寿命分析,预测了钢圈裂纹萌生位置以及寿命;并与基于声发射技术的钢圈弯曲台架试验结果进行了对比验证;表明了声发射技术应用于钢圈弯曲台架试验疲劳裂纹状况监测的可行性。论文理论、有限元仿真及试验结论分析正确,撰写规范,层次较为清晰,但工作量一般,研究不太深入。研究内容具有一定的理论意义和较强的工程应用价值,达到了硕士学位论文水平。论文存在的问题:1.有些数据书写不规范,如P40的8.61×10-7应该为8.61×10-7或8.61E-7,1.16×106应该为1.16×106或1.16E6,等等。2.P48,幅值门槛值40DB中的单位应该是dB。3.第5章中:(1)仅分析声发射信号定位图,其他特征参数如均方根、振铃计数、幅度、能量没有分析,通过这些参数可以反映出裂纹的扩展特征。(2)载荷变化对裂纹萌生阶段声发射信号检测的影响没有分析,为什么?(3)车辆钢圈实际工作环境下,如何测量声发射信号?另外,其他强噪声对其裂纹检测有较大影响,此时如何提高声发射信号的信噪比和定位的准确性?,0,1,0,-1,0,0,1,1,0,-1,0,0,0,0 +509,"论文选择氢与非晶合金的相互作用的力学性能为研究对象,对深入了解非晶合金的微观结构和性能具有重要理论价值和实际应用价值。论文以 Zr 基块体非晶合金为研究对象,采用氢氩等离子电弧熔炼法制备了不同氢含量的 三种典型块体非晶合金,系统研究了氢对 Zr 基块体非晶合金微观结构、纳米压痕变形行为、室温与高温压缩性能等方面的影响规律,并分析了其影响产生的原因,得到了一些重要的结论。 论文的文献工作扎实,对本学科的基础知识和基本理论掌握准确,研究方法适当,分析表征手段恰当。论文对添加氢的块体非晶合金表现过冷液相区宽度增加 等几个性质的研究与分析,具有一定创新性。 论文写作文字流畅,表述准确,图表规范,分析严谨。",0,0,0,0,0,0,1,1,1,0,0,1,0,0 +570,"论文以某沿海城市工程背景为依托,应用有限元分析、理论分析的方法,并结合大量工程实践规律对复合载体夯扩桩开展研究,选题有实际意义。开展了如下主要研究工作及并取得了有价值的成果: (1)利用 ABAQUS 软件建立复合载体夯扩桩、桩周土三维有限元模型,并验证了模型的正确性; (2)利用建立模型,分别对竖向荷载作用下、水平荷载作用下以及组合荷载作用下复合载体夯扩桩的力学性能进行了数值模拟分析,研究了该桩的桩身轴力分布规律、桩侧摩阻力分布规律、桩端总阻力分布情况及竖向承载能力影响因素; (3)结合应力扩散理论并考虑了夯扩体的相互扰动情况,得出复合载体夯扩桩在周围桩的扰动影响;得出持力层为黏土时复合载体夯扩桩最优桩距与夯扩体直径的解析关系。 总体上,论文写作较规范,逻辑清楚,作者具有较扎实的理论基础和有限元软件使用的能力。",0,1,0,0,1,0,1,0,1,0,0,0,0,0 +2424,该课题研究基于目前能源资源的过度消耗导致生态环境被破环等问题,就高效的能源转换及存储问题提出见解,以磺化沥青为碳源,构建了一系列多孔碳材料,并探究了材料的形貌、孔道结构、电导率和有效比表面积等参数对SCs电化学性能的影响,选题有较高的理论意义和实用价值,综述中对本学科及相关学科领域国内外发展状况和学术动态的有一定理解;课题研究中能提出的新见解、新方法,理论基础扎实,能系统掌握和应用该领域的专门知识,研究方法科学,有较强的分析问题、解决问题的能力,论文成果对该领域的技术进步产生一定的影响和推动作用;论文思路较为清晰,突出了课题的重点,引文规范,论文语言表达准确,逻辑严密,书写格式规范。综合评价良好,达到硕士学位论文水平,同意答辩。修改建议:(1)可在前言综述部分添加相关“双碳”理论,提出可再生能源(氢能、风能等)不稳定性,提出储能的重要性。(2)1.2小节“双电层电容器概述”出现的表突兀,可先从超级电容分类引起双电层电容器优势。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +1487,公路压浆是一种将压浆材料通过钻孔的方式注入到公路路基中使其扩散、胶凝或固化的方法,起到加固路基、填充路面基层的作用。 该文通过引出公路压浆这一技术,并分析了传统压浆方法的缺陷,研究发现:在裂隙较小的土层中使用压浆加固工程难度也随之增加,普通水泥基压浆材料的压浆效果并不理想、不能渗入较小裂隙中达到修复基层的目的,细微的裂隙具有特殊岩体结构性。又发现,作为工业废料的矿粉和粉煤灰相对于传统水泥的优良性质:粉煤灰的粒径更小,掺入适量的粉煤灰会提高压浆材料的流动性能,避免压浆时发生堵管现象;矿粉的比表面积更大,在水泥中掺入适量的矿粉不仅会发 挥其火山灰效应提高力学性能,还会优化混合压浆材料的颗粒级配,补偿内部水泥干缩引起的裂缝及泌水性差等问题。使生成的固结体更加致密,大幅提高耐久性能。因此,该文将工业废渣与传统水泥材料相结合配制一种以水泥为基体的矿粉-粉煤灰-水泥压浆材料。通过设计正交实验设计配合比;通过数值模拟的方法计算出理论扩散半径与实际扩散半径较为接近;最后将这种压浆材料应用至实际工程之中。 本文全文体现了专业特色的要求,逻辑衔接的较为紧密,自己创新的内容很多。总体上达到毕业论文要求。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +1114,本硕士论文针对多水下机器人的协同跟踪方法开展研究,针对水下图像处理、目标检测、协同跟踪等问题,通过深度学习、相关滤波、运动学与动力学建模、生物启发的协同跟踪等,在方法、技术、以及实验方面开展了较为完整的工作。 论文选题具有很好的学术和应用价值,论文工作表明作者具备了本专业的知识基础和科研能力,论文写作较为规范。,0,1,0,0,1,1,1,0,0,0,0,0,0,0 +562,论文以工业实际淘洗机为研究对象,介绍了电磁淘洗机的结构与工作原理,引用了单一矿粒磁、力学分析,以磁选柱为研究对象,采用数值分析方法,研究其内部流场、电磁场强度进行了分析,选定黑山精铁矿矿样,约束矿浆浓度、水流速度等参数,研究电磁场单一因素对分选效果的影响,并提出了最佳的电磁场场强参数。最后对电磁淘洗机磁系结构进行了改进设计,并完成了实验验证,基本达到了预期目标。 论文选题具有重要的工程实际意义,研究方法较合适,思路也比较清晰,论文叙述文字规范一般,论文的完成标志着作者基本具备了本学科的基础知识和专业知识,基本达到硕士学位论文的要求,建议组织答辩。,0,1,0,0,1,1,0,-1,1,1,0,0,0,0 +644,"论文针对我国植保机械喷药效率低,效果差,农药浪费情况严重等情况,提出研究植保机药液流量监控系统,实现植保机的精准喷药,论文选题具有实际的应用价值。 论文介绍了植保机流量控制系统的结构和药液流量的控制过程,分析了植保机流量监控系统的需求,提出了植保机流量监控系统的方案,选用 OK335xS-II 开发板和CAN 总线作为植保药液机流量监控系统硬件平台,嵌入式 Linux 和 QT 作为软件的开发环境,完成了监控系统人机界面,can通信,模糊 PID 的控制策略和各功能模块的软件编写,在实验室环境下对植保机药液流量监控系统进行了测试,测试结果表明,监控系统各项功能实现正常,针对不同的工况,流量控制器的性能较好。 该生的论文条理比较清楚,写作规范,文字通顺,理论推导正确。 论文取得一定的科研成果,表明该生基础理论扎实,软件编程能力较强。论文达到硕士研究生水平,同意该生进行硕士论文答辩。",0,1,0,0,1,0,1,1,1,0,0,0,0,0 +2789,论文选择社会工作的专业性为议题,具有一定的理论和现实意义。研究通过项目的介绍为切入点,对机构在社区层面工作的过程中,体现出的专业性基本情况进行了分析,也对在专业性层面存在的问题进行了论述。但在很多细节以及对案例的论述和专业性的分析等部分尚存在不足,具体的修改意见如下:1、摘要部分,论述层次混乱需要梳理。2、论述过程中很多地方语句不通,语句重复,建议仔细阅读进行修改。3、研究方法的论述不严谨,建议参考社会研究方法。4、文献综述部分一级标题二级标题三级标题不应该一样,建议有所区别论述。5、服务案例部分层次混乱,建议将个案和小组分开论述,小组和个案介入的路径本身也差异较大。6、第二章与第三章应该是论文的主体部分,一方面研究需要论述项目活动是如何开展的,同时还需要体现标题中强调的社会工作的专业性,所以这两部分应该是结合起来的,而不是应该分开论述的,这样感觉论文就是两张皮,结合不起来。应该在论述第二章活动过程的同时,穿插专业性的分析。7、第四章标题应该是反思与对策建议。对策建议一定是来源于你的研究过程,而不是放到哪篇论文都可以的标准答案,建议好好根据研究内容进行梳理。,-1,1,0,0,0,0,0,-1,-1,-1,-1,0,0,0 +849, 该翻译实践报告所选取日本近世历史学者著作《近 世日本国家权力与宗教》的序言及第一章的内容,基于维索尔伦的顺应理论,进行翻译实践活动。译者在语言顺应理论的框架下,分别从语言语境顺应 和语言结构顺应两个层面出发,对所选文本的案例进行分析。选题应来源于真实的翻译实践,立足翻译实践;有实际意义;有一定难度,符合MTI学位论文选题要求。从专业翻译的角度,描述翻译案例发生的背景、情境和完成过程,分析案例中的教训和不足,并综合运用所学专业知识和理论知识,论述解决问题的方案。有适当的工作量和一定的研究难度。结构合理。条理较为清楚,有一定的逻辑性。该论文为翻译实践研究提供了一定有益的参考。选题比较好,研究方法得当,文字表述比较准确流畅。,0,1,0,1,0,0,0,1,1,1,1,0,0,0 +880,《中国女排进攻技战术运用特征分析——以 2020 年东京奥运会女排比赛为例》选题基本符合中国女排参加世界比赛的实际情况,该论文能够将中国女排在东京奥运会比赛中的进攻战术与防守战术相结合,从多个视角分析中国女排队员在比赛过程中的优势与劣势情况,研究具有一定的理论意义和实践意义和创新性。该论文结构基本合理,能够提出未来中国女排的发展方向及进攻技战术水平的提高并提出相应的对策与措施的观点和建仪。另外,论文文字表达正确、论证合理、层次分明,基本达到了硕士研究生毕业论文的格式。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +346,互联网时代,基于生物特征的识别越来越广,人脸识别是其中重要的应用方面,所以本文具有使用价值。 论文在详细分析了CNN的模型结构、前向和反向传播算法,并阐述卷积层、激励层、池化层和全连接层的机理之后,对AlexNet 网络在人脸识别中存在的损失梯度下降的慢,识别率梯度上升的慢,稳定性差的问题,提出了基于改进和优化的网络结构模型的方案。 论文分析了模型AlexNet 的网络结构及相关参数,并参考VGGNet网络模型,将AlexNet 网络结构和参数进行改进,删除了LRN层,提出了改进卷积核网络的结构模型。通过测试AlexNet的全连接层个数对人脸识别的影响,得到全连接层个数为2的时候实现人脸识别的性能为最佳,提出了具体的改进方案;最后论文研究根据GoogleNet网络模型提出了优化的改进卷积核网络方案,再对参数进行调试,优化的网络结构分别在ORL、GT、Faces95 等人脸数据集上进行测试,在人脸识别学习速度、识别率、损失值、稳定性等方面都有所优化。 从论文看,作者专业知识扎实,具有科学研究的能力,论文中阐述清楚,条理性好,数据充分。 论文达到硕士论文的要求,同意提交答辩。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +1337,"该论文选题面向实际需求,利用废弃生物质-花生壳改性作吸附剂,既解决了水体污染问题,同时解决了废弃生物质资源化利用的问题,是具有现实意义的课题。 文献综述部分,作者大量阅读了国内外学者对废弃生物质改性的研究成果,也进行了总结,对领域内的研究和发展现状都有了解。但作者只是简单地总结了前人的工作,如果能够对文献中获取的信息进行深入的剖析,归纳总结出目前国内外的废弃生物质改性用于废水处理的研究难点会使自己工作的意义更加突出。文献调研过程中发现已有前人利用改性得到两性甘蔗渣吸附剂,也是具有良好的吸附性能,而在作者的工作中,选择对花生壳进行两性改性,与前人的两性改性的区别没有讲清楚。 研究成果部分,作者在前人研究的基础上,选择花生壳为前驱体进行改性进行MB吸附和活性艳红的吸附。对吸附材料的制备工艺进行了详细的研究,通过对几种影响参数,如反应温度,反应时间,醚化剂,水醇比,NaOH用量的调控,做了大量的实验探索,并采用响应面法优化实验条件,得到几种参数的影响程度的大小,并通过模型方程式验证该方法的可行性,最终能够对材料的改性调控提供一定的指导。并且通过各种表征,如XRD, FT-IR, SEM等对改性花生壳的特性进行分析,能够很好的解释出现的各类吸附结果。对吸附动力学和吸附等温线进行了详细的拟合分析,初步得到了吸附机制,也能够有所解释。对以后的研究有一定的参考意义。 业务水平上,作者的基础理论知识相对比较扎实,拥有较好的科研实验设计能力,对该领域的发展现状描述,设计思路的表达,实验过程和结果的说明,实验数据的归纳总结,图表整理等较规范,清晰,工作量比较充实。 论文写作方面,全文结构安排合理,逻辑表达清晰,格式较规范,语言流畅。是一篇合格的硕士毕业论文。",0,1,1,1,1,1,1,1,1,0,0,1,0,0 +815,针对餐饮企业的油烟污染问题,该生论文提出设计并开发油烟在线检测系统,帮助监管部门实时监控餐厅的油烟排放情况,选题具有较高的应用价值。 论文分析了油烟检测系统的功能需求,确定了系统的总体设计方案,采用 STM32407 系列单片机作为主控制,采用油烟传感器 TGS2602,温湿度传感器 DHT22 采集现场包括油烟值,采用CAN 总线技术和GPRS 无线通讯技术,实现数据的传输。设计了油烟检测系统硬软件,采用BP 神经网络,实现温湿度补偿,校准油烟浓度,并对系统功能进行测试,实现了油烟浓度,环境温湿度,工作电流数据的采集。 论文撰写严肃认真,结构完整,格式规范,论述过程严谨,思路清晰,综合运用了所学知识解决问题,分析方法选用得当,结果可信。   该论文反映出了作者控制理论基础知识扎实,硬件和动手能力较强,具有解决实际问题能力及良好的科研潜力。到达了硕士学位论文的要求,推荐安排答辩。,0,1,0,0,1,1,1,1,1,1,1,0,0,0 +667,螺杆泵转子为螺杆泵核心部件,该同学以实现提高双头螺杆转子加工效率、表面质量为研究核心,提出以现有轨迹法成型理论作为研究基础,将内旋风铣技术与柔性数控系统相结合的内旋风铣削双头螺杆转子加工技术。利用该技术加工的双头螺杆转子较高表面质量和加工效率高的特点。 该同学选题正确,满足本专业培养要求,研究成果具有一定理论意义和实用价值,。 本论文主要研究内容及成果有以下几个方面: 一、 根据双头螺杆螺旋曲面的特点生成的内旋风铣削双头螺杆转子的数学模型,参考内旋风铣削双头螺杆的刀尖空间运动轨迹方程,验证了内旋风铣削加工的可行性。 二、 为了提高旋风铣削机床的加工精度,基于多体系统理论和坐标齐次变换方法建立了机床几何误差模型,再利用机床雅戈比矩阵计算各误差在刀具坐标系中的补偿量。 三、 对加工结果进行了分析,建立了刀具与工件旋转轴线偏心距误差及刀尖切削半径等参数与工件端截面轮廓参数的对应关系。 四、 借助激光测距系统对内旋风铣削双头螺杆零件进行了测量,验证了该方法的可行性和有效性和精确性。 论文条理清晰,层次分明,理论功底较扎实,试验结果正确,表明该同学已基本掌握本门学科理论基础,同时具有一定的工程实践能力。希望今后能将目前研究深入下去,提高该方法的实用性。 建议论文提交答辩,并建议授予该同学硕士学位。,0,1,0,0,1,0,0,0,1,0,0,1,0,0 +2120,在当今电能变换及利用过程中,高品质电机的设计及控制技术起到越来越大的作用。该学位论文以喷气织机用电气传动系统为研究对象,采用直驱永磁电机对驱动系统展开设计与优化研究,论文选题具有一定的理论及应用价值。文献综述一定程度上反映了国内外该选题及相关领域的发展与现状,归纳及总结表述客观属实。 论文首先设计了喷气织机直驱永磁电机的电磁结构,在基础上分析了该电机的转矩特性;进而接和喷气织机的生产需求对电机减重及起动性能进行了探讨,并对所设计的电机系统进行了性能校验。 上述工作表明论文作者已基本掌握了该领域的基础理论、专业知识和研究方法,基本具备了从事科学研究的能力。论文表述通畅、图表相对规范;论文书写体现出的理论及数据真实、结论合理,总体上达到了硕士学位论文的水平,同意作者参加学位论文答辩。,0,1,1,0,1,1,1,1,0,0,1,0,0,0 +359,开关电磁动作机构直接影响开关的分合闸时间、电弧重燃等特性,是开关器件的核心部件。论文设计了一种动开距的控制保护开关的电磁动作机构,具有一定的理论和工程实际意义,论文的主要工作包括: (1)搭建了短路工况的电弧模型,分析了动作机构衔铁位移与开端特性的关系; (2)搭建了电磁机构测试了样机,并验证了模型分析结论。 论文工作扎实,达到了毕业论文的要去,建议提交答辩,0,1,0,1,0,0,0,0,0,0,0,0,0,0 +1647,论文立题依据充足,能够理论联系实际,解决应用中的关键技术问题,论文的工作量满足硕士研究生的论文要求,内容比较充实。论文的核心是通过开关电容的方式提高无刷直流电机的母线电压来提高真空断路器的分合时间。理论上电容的电压不能突变,利用开关电容提高母线电压的理论分析不足,缺乏相应的仿真和实验研究。无刷直流电机控制仿真目的不明确,论文重点不突出。,0,1,0,1,-1,0,0,0,-1,-1,0,0,0,0 +1483,高温合金中 P 的作用在近年来一直存在很大争议。最近发现P元素在高温合金中添加能大幅度提升持久寿命,因此研究P对高温合金的组织和性能的影响具有重要意义。本文作者主要研究了P元素在Ni-Cr系和Ni-Cr-Fe系高温合金中的作用,具有一定的理论意义和工程应用价值。 论文的主要见解和结果如下: (1)研究获得P元素对铸态组织的影响规律。磷的加入抑制等轴晶,促进柱状晶生长和细化,细化枝晶,增加枝晶生长速率。 (2)P可以促进 Ni-Cr系合金再结晶晶粒长大,对于轧制态和固溶态而言,P的加入都降低Ni-Cr系合金的硬度和强度。 (3)P对Ni-Cr-Fe系合金晶粒长大的影响与温度相关,温度较低时促进晶粒长大,温度较高时对晶粒长大有抑制作用。P的加入对轧制态 Ni-Cr-Fe系合金有益,其作用取决于在基体中的固溶程度。 论文层次分明,思路清楚,撰写认真,图表较规范,方案可行,分析合理,结论正确。表明该生已掌握了本门学科坚实的基础理论和系统的专门知识,具备从事科学研究的能力。,0,1,0,0,1,1,1,0,1,0,1,0,0,0 +1598,论文对三相共体式和三相分体式GIS设备振动信号产生的原因进行分析,并利用有限元软件COMSOL建立了三相分体式40.5kV断路器触头接触不良时仿真模型,对GIS设备触头接触不良振动特性进行了仿真计算,在此基础上在实验室搭建40.5kV断路器振动测试试验模型进行了实验分析。论文有明确的研究目标,选题切合实际工程需要,撰写总体规范,达到了硕士学位论文的基本要求。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +2905,论文针对图像中物体轮廓的检测,采用模拟人类视觉的视皮层神经元建立深度网络模型进行轮廓检测,该研究具有较好的理论意义,在生物视觉建模方面对后续研究也有很好的启发。论文参阅了大量国内外相关文献,针对轮廓检测,采用了将生物视觉机制与卷积神经网络相结合设计轮廓检测算法。论文提出了模拟视皮层神经元多级交互式网络机制和平行分层式网络机制的轮廓检测深度模型。论文介绍了相关方法的实现过程,客观分析了模型的参数、计算量及性能等,通过实验验证了其方法的有效性。论文工作表明,作者具备扎实的理论基础,能够利用掌握的专业知识解决实际问题,具有较强的独立从事科研工作的能力。论文层次分明、条理清楚、格式规范,论文达到了硕士学位论文水平,建议考虑以下几点意见,然后准备论文答辩:(1)第4章轻量化模型的结构不够详细。(2)为了验证仿生多级交互机制和平行分级机制的有效性,可以通过消融实验看看这些模块对模型性能的影响。,0,0,1,0,1,1,0,-1,1,0,0,0,0,0 +1437,该文对商标反向混淆的法律问题进行了探讨,阐释了商标反向混淆的基本理论,分析了我国对商标反向混淆法律规制的困境,比较考察了美国、日本和欧盟的立法和实践,最后提出了完善我国商标反向混淆制度的建议。 该文选题有一定的理论价值和现实意义,论文写作符合基本法律规范,语句通顺。作者对论文主题有较深入的理解,能够提出自己的见解,资料充分,并且作了论证。该文的写作表明作者具有较好的专业知识基础,有一定的独立从事科学研究的能力。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2748,论文选题具有一定的实际运用价值。论文写作基本规范,文字表达也比较流畅。统计研究方法基本合理。研究资料翔实,资料运用较为合理、得当,论证尚可,符合专业特点,工作量饱满。主要不足之处在于研究内容的深度不够。论文对广西地区米粉店线上点评数据进行文本挖掘,通过将情感分析、主题模型、语义网络分析等文本挖掘技术与层次分析法相结合,探究消费者的米粉口味偏好与粉店综合服务满意度得分,并以此为依据提出相应的改进建议。从中可以看出,作者对广西米粉店评论分析,主要侧重于米粉口味和服务满意度,研究意义并不是很大。尤其对于米粉口味来说,这是个人喜好问题,即使发现,某一口味为人们所偏好,那么是否意味着,我们就专门生产这种口味呢?显然,也不能这样。更深入的分析有助于得出有价值的结论,就是挖掘其他更多的内容,而不能仅仅从口味角度来分析。,0,1,1,1,0,0,1,1,1,0,0,-1,-1,0 +422,论文对企业并购过程中的协同效应进行了研究和分析,结合三维通信并购巨网科技的案例,利用实物期权对其进行了深入的分析和研究,从理论分析中指出,企业并购过程中产生的协同效应包含着期权价值,可以将企业并购看成期权的行权过程,从而能够运用期权模型对协同效应进行估量,然后把该思路运用于高新技术企业并购的案例分析之中,利用实物期权模型对案例并购中的协同效应价值进行测算,最后给出了结论和建议。论文的选题具有一定的新意,思路和逻辑性也较好,达到了硕士论文水平,同意进行答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +261,该论文针对CO2气体驱油技术应用中导致金属管道腐蚀的问题,制备了四种咪唑啉类缓蚀剂,优化了合成方法,表征了其缓蚀性能和影响因素,并初步研究了缓蚀机理。论文的选题具有较大的实用价值,取得了较好的应用成果。论文研究思路较清晰,方案设计较合理。作者已较好地掌握了课题相关的理论基础和专门知识,有较强的独立研究工作能力。数据较详实、分析较合理,逻辑性较强。论文已达到硕士论文的要求,建议对不足之处进行修改后提交答辩。,0,1,0,0,1,1,0,0,1,1,0,1,0,0 +726,完备的不动产预告登记制度对于统一不动产登记制度的建立极为重要。不动产预告登记制度对于保护当事人双方的利益有重大作用,该论文选题具有理论研究和实际应用价值。 论文从不动产预告登记制度的基本理论出发,分析研究了我国不动产预告登记制度的现状、适用范围和司法实务中突出问题。通过对国外不动产预告登记制度的分析比较,对我国现行不动产预告登记制度的不足进行了反思,总结了我国不动产预告登记制度所存在的一些缺陷,最后,结合司法实务中出现的问题,从不动产预告登记制度的适用范围、登记设立程序、效力及建立错误登记赔偿双责制等方面提出了相应的完善建议。 论文层次清晰,结构较严谨,论证具有一定的逻辑性,写作较规范。但就论文研究范围的界定以及论证的深度方面有待进一步修改。特别是要结合民法典“物权篇”的制定提出自己的观点。 综上,该论文达到硕士学位论文要求,经修改,导师审阅同意后参加答辩。,0,1,0,0,0,0,1,0,1,0,0,0,-1,0 +231,该论文对新时代中国文化自信问题作了较为全面的思考,较为准确的界定了文化自信的核心概念,论述了文化自信的提出以及基本内涵,指出了在新时代背景下增强文化自信客观要求和重大意义,分析了中国增强文化自信的有利条件和不利因素,提出了今后中国增强文化自信的具体对策。论文能够围绕主题展开,篇章结构较为合理、写作较规范、逻辑较为严密,语言较流畅,反映了作者具有较好的专业理论知识和一定的科研能力,达到了硕士学位论文水平。,0,0,0,0,1,1,1,1,1,0,0,0,0,1 +38,4.论文研究泛函方程及导子的稳定性分析问题,选题具有理论研究价值。论文主要成果有: 1.使用直接法证明了Pexider不等式在fuzzy Banach空间中的稳定性; 2.使用不动点方法证明了n-Jordan ×-derivations在诱导fuzzy C*-代数上的hyers Ulam稳定性。 论文写作规范,论证符合逻辑。从论文写作情况可以看出,作者掌握了扎实的基础理论知识,熟悉领域研究现状,具有了较高的研究能力。硕士学位论文达到了国家硕士学位条例所要求的水平,同意按期参加硕士学位论文答辩。,0,0,1,0,0,1,1,0,1,0,0,0,0,0 +2873,论文应用社会学量化研究方法、社会工作小组工作方法进行研究,认为大学生较多存在佛系心理,例举其行为表现,分析其产生的原因,并以社会支持理论、社会学习理论为小组工作的理论依据,对组员开展小组工作以提高其心理资本,降低佛系的心理状态。论文思路清晰,主题贯通,论证较充分。论文的问题是,佛心心态是一个表述性概念,作者的量表中很多问题并不是消极的,如“面对是非成败,我能够泰然处之”、“我能够平静地看待生活中的是是非非”,如果这些问题是用来衡量佛系心态的,那么佛系心态并不需要改变,反倒是一种豁达的人生观,因此本论文的基本问题是没有立住的。可以在答辩里阐述清楚这些问题。,0,0,0,0,0,0,0,0,1,-1,0,0,0,0 +1889,论文针对多AUV导航问题,研究了多AUV协同导航定位算法,选题有一定难度,属科学前沿,该研究为AUV的导航控制研究提供一定的理论参考和技术基础。 作者查阅了国内外相关文献,概述了多AUV协同导航定位技术和算法的研究前景和研究现状,分析了当前研究的技术难点,基本能够反映了国内外本区域覆盖的发展和应用现状。 作者研究了基于EKF和UKF的协同导航算法,分析了多AUV协同导航误差,并进行了仿真验证和部分湖上试验验证,验证了算法的有效性。 论文有一定的工作量,表明了作者已基本掌握了较为坚实的基础理论和系统的专门知识,具备了一定的科研工作能力。论文叙述清楚,逻辑性较强,层次分明,文字表达较准确、流畅。,0,1,1,1,1,1,0,1,1,1,0,0,0,0 +2221,1、论文基于机器视觉对空间构件预扫描算法研究,具有一定的理论意义和较好的经济实用价值;2、作者对本学科及相关学科领域国内外发展状况和学术动态有一定的了解;3、论文内容较为充实,机器视觉的相关实验内容丰富,数据详实、结论可信,论文的研究体现了作者较好的分析问题、解决问题的能力;4、论文引文的规范性,学风的严谨性;论文语言表达的准确性、逻辑的严密性,但书写及图表表达欠规范。5、论文达到硕士学位论文水平,修改后同意答辩。6、存在的问题:(1)调整格式,处理页末留白。(2)文中有多处格式问题,如由于正文插入公式,导致大量行间距发生变化,这要加强修改,尽量采用word自带符号处理。(3)图中大量图片字体偏小,图片质量较差,不清晰,要修改。(4)进一步提炼摘要,丰富结论,注重总结本文研究的意义,一定要提炼出文章的创新点,即本文算法的价值和创新性。,0,1,1,1,0,1,-1,0,0,0,0,0,0,0 +381,论文《上市公司可转债转股后对公司价值的影响研究》研究可转债转股以后对上市公司资本结构的改变,从而对公司价值的影响,并将发行主体分为国有企业和民营企业,对比两种类型公司对公司价值影响的不同。论文选题有一定的实践意义。文献收集较为丰富。能够采用多种实证方法进行验证,实证设计较为周密。文字较为流畅。表明作者基本掌握基础知识和基本技能。,0,1,1,0,1,1,0,1,0,1,0,0,0,0 +2766,论文选题聚焦工作场所较为普遍存在的社交媒体使用这一现象,具有较强的现实意义;基于资源保存理论,分析社交媒体使用对员工创造力的影响机理,具有一定的理论意义。对已有文献的梳理较为合理,体现了对相关研究发展现状有一定的了解;引入心理脱离和情绪耗竭的链式中介,具有一定的创新性;所提出的实践对策具有一定的可操作性;理论基础选择得当,论述严谨,逻辑性较强;研究方法选取科学,运用较为准确,体现了较强的分析问题与解决问题的能力;整体上工作量较为饱满,有一定的深度,语言表述较为准确,结构较为严谨。总的来看,该篇论文的质量较高,达到了硕士学位论文的水平。但尚有一些需要改进的地方,主要如下:(1)文献综述没有全面展示已有研究的发展现状,导致对全文主题的支撑力度还有欠缺。例如,在对“员工创造力的影响因素研究”部分的文献综述中,只是简单地介绍了个体层面的影响因素,忽视了情境因素等方面的相关文献的梳理与综述。一方面,这导致了对已有研究的价值与不足的判断可能出现偏差,从而导致本文的理论贡献可能面临挑战;另一方面,也导致了后续假设提出部分的论述稍显苍白。(2)有一些可能是手滑导致的小错误需要核实改正。例如,第20页表4-1的表头处写着N=405,但上面的文字介绍中N是402,根据表4-1中的数据核算也应该是402。具体还须作者仔细校对。(3)研究结论这一章缺少对“理论贡献”的探讨。作为一篇学术研究论文,对理论贡献的探讨应该是不可或缺的。(4)参考文献虽然很新,但作为一篇学位论文,68篇参考文献还是太少了。归根结底是由于文献综述部分不够丰满所致,与已有研究的有效对话还有待加强。,0,1,1,1,0,1,1,0,1,1,-1,1,1,0 +2024,随着AI技术的发展,越多越多的领域开始进入智慧时代。养老服务也不例外。论文就“智慧养老”中的养老数据的安全性问题,给出了采用区块链和PKI相结合的方法实现了养老数据的可靠性和安全性,并能确保一定的容错性。论文就心血管疾病的开源数据集进行了数据分析,包括对数据进行预处理以及数据规范化,并分析了数据中多变量间关联关系进行了分析,并构建了Logistic回归、GBDT、随机森林和LightGBM四种心血管预测模型,并对着四种预测模型进行了性能评估,最后采用KNN算法对LightGBM预测模型进行了优化。 论文的选题有一定的理论意义和实用价值,有一定的创新性。显示了论文作者具有较好的基础理论和专业知识,具备一定的科学研究能力。,0,1,0,0,1,1,0,0,0,0,0,1,0,0 +317,该文针对电工钢片的磁滞曲线和磁致伸缩曲线进行了研究,通过对电工钢片在交变磁化下,观测了介观磁畴的动态变化,以磁畴所含能量最小化原理为基础建立了基于磁滞模型和磁致伸缩模型,通过与实测曲线对比,具有一定的吻合度。在精确计算磁化性能方面做了有益的尝试,还需继续尝试,争取早日应用于电机设计中去,以改善电机设计精度。 该文的研究为较精确电机设计打下良好的基础,具有深远意义,具有一定的新意。显示了该生掌握了较扎实的基础理论知识,具有一定的科研能力。达到了工学硕士的水平。修改后可以考虑进行答辩。 该文立论正确,论述有据,章节安排合理,逻辑清晰,图表符合工程要求。,0,0,0,0,1,1,1,0,1,0,0,1,0,0 +2850,论文以企业生命周期为视角,运用引入灰色预测模型的EVA模型,并使用实物期权模型估算企业的潜在获利价值,对成长期企业进行价值评估。论文研究成果,可以应用于其他成长期企业的价值评估,具有应用价值。论文将灰色预测模型、实物期权模型分别与EVA模型结合构建复合模型,具有理论价值。论文研究资料翔实,运用资料合理得当、充分,写作规范,逻辑清晰,结构合理,层次分明。由于政策对企业价值影响较大,可选择最新数据,以增加评估模型对成长期企业的适用性。,0,0,0,0,0,0,1,0,1,0,0,1,0,0 +2347,本文研究主题对于如何充分发挥闭环供应链在促进电池资源综合利用、破除回收和处理环节的障碍,以及培育经济发展新动能等方面具有理论意义和实践意义。本文以生产者责任延伸制为依托,根据电动汽车动力电池闭环供应链的权力结构差异类型,构建考虑政府实施补贴策略的回收决策模型,基于博弈理论方法探讨单、双主体回收的情形,着力解决政府补贴背景下动力电池回收模式的策略选择问题,研究内容丰富,逻辑思路清晰,论文文字表述流畅。论文立足生产者责任延伸制视角,考虑政府补贴等影响因素,将实际问题转化成科学问题,由科学问题再转化为学术问题,进行系统的闭环供应链回收仿真模型构建,加以解决,进而反演到实际问题,用科学问题的解决原因指导实际问题的解决,进而依据科学问题对实际问题给出管理学启示,研究过程符合政策模拟仿真研究范式,颇有新意,结论合理。从论文写作可以看出论文作者具有扎实的企业管理理论功底和科研素养及其科学研究潜质,其论文达到本专业的硕士论文标准,可以直接参加答辩。论文存在的不足:第一,论文摘要第一段写的文字表达啰嗦,建议精简;摘要中不应该包含创新点,建议放入第一章;第二,每章后面有章末小结,不符合学术论文的写作规范,学位论文不是教材,建议删除;第三,论文中对于模型的推导过多,管理学论文重在解决管理学中的实际问题,建议适当删除公式推导部分,增加管理原理解决问题的文字笔墨。第四,闭环供应链回收仿真模型数据模拟中的数据来源不明确,应该进一步说明模拟仿真中的实际数据使用问题。,0,1,0,1,0,0,-1,1,1,0,0,0,0,0 +1373,该论文针对Mg-Zn-Sn合金,利用实验及数值模拟的方法,研究了不同Sn含量添加的合金凝固过程中的热裂敏感性的变化规律及磁场作用条件对于热裂性的影响规律。该论文研究对于推进镁合金的应用及研究均具有较高的价值,论文选题新颖。论文撰写规范,表述逻辑性较强。硕士研究工作量饱满充实,科学论证充分。满足硕士论文研究生的要求,同意其修改完善后答辩。,0,1,0,1,0,0,1,0,1,0,0,0,0,0 +1556,论文《基于温升特性的真空泵异步电动机负荷能力评估与分析》设计了一台5kW真空泵驱动用屏蔽感应电机,并对电机的电磁特性和损耗等进行了计算;建立了电机温度场仿真三维物理模型,对电机额定运行时的稳态温度场和热应力进行了有限元计算,通过仿真和实验测量了电机额定状态下的瞬态温升过程,得到电机不同部分的温升曲线;分别对电机长期连续过载、短时过载和电机变负载运行三种情况下电机的负荷能力进行仿真分析并进行了实验测量。为电机合理负载率的选择、安全运行时间的确定以及极特殊工况下设置电机保护装置的可操作时间提供了科学依据,具有一定的实际工程参考价值。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1892,论文针对二氧化钛纳米粉体可见光用率不高、光生电子和空穴间的有效分离困难以及纳米粉体的负载回收问题,构建了一系列g-C3N4/TiO2基复合粉体,改善了二氧化钛纳米粉体的光催化性能。论文选题具有一定科学价值,文章结构较完整,实验方案合理,表征手段充分,数据充足,工作量丰满,取得了一定研究成果,结论正确达到了硕士论文水平要求。,0,1,0,1,0,0,0,0,1,1,1,0,0,0 +340,光通信已经成为大容量告诉率远距离数据传输的主要方式,而色散容限较小阻碍了高速率长距离光纤通信系统的发展,本文研究高速波分光纤通信系统中的色散补偿问题,研究具有重要理论意义和应用前景。作者在查阅相关参考文献,了解国内外现状的基础上,开展研究。论文基于麦克斯韦方程组和光纤截止传输条件推导出单模光纤中皮秒级脉冲传输方程,解释了基于色散补偿光纤实现色散补偿的原理。,并使用分布傅里叶数值方法实现了单模光纤中脉冲传输的色散效应、色散补偿、自相位调制和光孤子传输的简单仿真,提出了一种营养于波分复用系统中的基于色散补偿光纤的分波长色散补偿的方法,并将该补偿方法的色散补偿效果与传统的波分复用系统色散补偿效果进行对比,仿真分析证明该方法在特定的系统中具有最佳的系统性能。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +691,深海自主水下航行器的隐蔽性决定了其作战性能,推进电机是其辐射噪声的主要来源。论文以轮边直驱电在深海 3000 米处航行的自主水下航行器的推进电机为研究对象,针对电机的安静性能,采用不均匀气隙、增加定子轭部厚度的方式来降低电机的电磁振动噪声。研究具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,同意参加进行答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +1754,论文研究了拆卸过程工效学参数获取和能耗建模问题,研究难度较大,研究成果具有良好的理论意义和社会经济效益。 论文参考了国内外众多的文献资料,以自行车后轮拆卸为例,对人工拆卸过程能耗进行了数据建模,并基于网格算法对模型进行了优化,然后以Jack仿真软件为标准,对模型进行评测,实验结果证明了本文方法的有效性,具有一定的工程实践意义。论文反应了作者较为扎实的知识储备与研究能力,论文叙述清晰,达到硕士学位论文的要求。,0,0,1,0,1,1,0,1,0,1,1,0,0,0 +1697,论文选取典型案例进行“上市公司+PE”并购模式的分析讨论具有一定的理论与现实意义。论文借助相关理论分析了木林森选择“上市公司+PE”并购模式的动因、交易过程、收购后的整合以及并购后的效应,为其他公司的比购提供了参考,具有实用价值。语言通顺,思路清晰,有自己的体现了一定的理论应用能力与分析能力。,0,1,0,0,0,1,0,1,1,0,0,1,0,0 +19,《论个人信息网络侵权的民法规制》一文,采用比较研究方法,认为信息的高速传播固然给人们的生活带来许多便利,但同时也威胁着个人信息安全。论文通过分析个人信息网络侵权行为的特点及具体表现,并结合《侵权责任法》的相关规定,总结出我国在个人信息网络侵权保护方面的现状及存在的法律问题,从完善个人信息网络侵权的责任分担模式、完善个人信息立法保护以及完善其他法律救济机制这三个角度出发提出了完善我国个人信息网络侵权保护的制度建议,具有一定的理论价值和实践意义。 综上所述,该文观点明确、论述完整、语言规范、表达流畅,达到硕士学位论文水平。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +1267,对铸型或砂芯进行强制冷却时铸造过程中改善铸件冷却条件的一个很重要的技术手段,对于中、大型铸件的成形具有重要意义。本文以壁厚 40 mm和高度 200 mm的砂芯、直径分别为 60、100、140 mm 的环形 ZL101铝合金铸件为对象,采用数值模拟和浇注实验实测温度场的技术研究了传统铸造条件(无强制风冷、强风冷)下铸件、铸型和砂芯的温度场变化规律,取得了一定的成果。 1、定量描述了铝合金砂型铸造条件下金属液凝固过程中出现的热饱和现象,即砂芯温度高于或等于铸件温度。这一热饱和现象的产生使得金属液凝固时间变长,随着砂芯直径的增大(100 和 140 mm),热饱和现象发生在铸件完全凝固后的冷却过程中。同时也发现了呋喃树脂自硬砂和有机脂硬化水玻璃自硬砂分析了造型材料对砂芯热饱和现象的影响,当造型、制芯材料更改为有机脂硬化水玻璃自硬砂时,上述尺寸的铸件其砂芯热饱和温度分别降低到 540 ℃和 474 ℃。而 且当砂芯中通入高速冷风形成强制风冷条件时,砂芯的热饱和现象将完全被消除。 2、研究了不同尺寸的环形铸件(通过改变 D/d 比值来实现铸件尺寸的不同,D/d 分别取 2.0、2.5、3.0、3.5、 4.0)为研究对象,采用数值模拟分析了有/无强制风冷、浇注温度(650、750、850 ℃)、风速(10、20、30 m/s)以及风管挂砂厚度(5、10、20 mm)等参数对铸件凝固时间的影响,进而分析各参数的变化对铸件粘砂倾向的影响,得到了有价值的结论。 全文研究思路清晰、立意新颖,数据丰富、结论正确,图标规范,文字较为流畅。表明作者具备较好的专业基础知识和较为广阔的理论知识,有较强的动手能力。研究结论对于行业有一定的理论价值和实际指导意义。,0,0,0,0,1,1,1,1,1,0,1,1,0,0 +660,论文作者从环保和食品安全的角度出发,提出制备兼具抗菌和可降解功能的PE复合薄膜,论文选题有一定的理论意义和实际应用价值。论文作者归纳总结了相关领域的发展和最新研究成果,设计了具体可行性的研究方案,在对纳米 TiO2进行表面改性的基础上,制备了LLDPE/HDPE/山梨酸钾/纳米TiO2薄膜和 LDPE/PVA/山梨酸钾/纳米TiO2薄膜,并研究了2种薄膜的形貌、力学性能、抗菌性能和可降解性能。经过大量的实验研究,获得了对后续研究有参考意义的研究成果,但对研究结果的对比分析和深入讨论有待进一步加强。论文中体现出作者掌握了一定的学科理论基础和专业知识,已具备一定的独立从事科学研究工作的能力。论文语言比较通顺,图表比较规范,论文结构有一定的合理性,但前后重复较多,内在逻辑性体现不足,建议进行适当修改。,0,1,0,0,1,1,1,1,-1,0,0,0,0,0 +2785,"论文选题有意义,理论基础和研究方法掌握较好,论文全文的研究内容符合选题要求,达到预期研究目的,论文基本达到硕士学位论文水平。但论文写作的逻辑性需要改进,论文的逻辑顺序请进行一定调整。存在的主要问题:1、P16,传统评估方法的选择分析此处有逻辑问题。应该先分析有哪些传统评估方法,各自优缺点,然后选择方法。2、建议第三章的题目为:第三章MonteCarlo模拟改进DCF模型的思路然后在这里分析传统DCF的特点及存在的问题。3、现有章节顺序存在一定的问题。第三章结束后,应该进入第五章,实际评估案例分析。第四章不是论文研究重点,不应该大篇幅地放在中间展开研究(喧宾夺主)。建议:不要第四章,现有第四章放在第五章后面,并且不单列一章,在第五章后增加一章:评估效果比较。把现第四章放进评估效果比较中去,作为里面的一部分内容,先讲传统方法的评估结果,然后再进行两种方法的评估效果比较。3、表述不规范,比如:P45,在995%置信区间...",0,1,0,0,1,0,0,0,-1,0,0,0,0,0 +618,论文针对光纤Bragg光栅作为铭感元件、弹性体作为受力元件的机器人用多维腕力传感器展开研究。在对光纤光栅测量原理的介绍基础上,利用ANSYS有限元分析软件对所设计的弹性结构进行了静态、模态以及瞬态的仿真分析。采用FBGA解调模块将光信号转化成电信号,再通过控制电路进行数据采集、传输、存储和分析。搭建了硬件实验平台,开展了单轴力的测量实验和数据分析。内容较为完整,写作规范。,0,0,0,0,0,0,1,0,0,0,0,0,0,0 +2530,该硕士论文采用撞击流-文丘里空化耦合反相乳液法制备了纳米级的5-Fu壳聚糖微球,系统研究了油相种类、交联剂添加方式、交联剂类型、壳聚糖分子特性、壳聚糖溶液流变学性质(CS-Rhep)、撞击流反应器结构、孔板结构、撞击流/空化组合方式等对微球颗粒特征和产率的影响规律,以及京尼平交联制备的5-Fu壳聚糖纳米微球的溶胀及缓释性能。主要研究内容及结果如下:1、采用撞击流-文丘里空化耦合反相乳液法制备出了粒度小、分布窄、分散性好、颗粒饱满的纳米级5-Fu壳聚糖微球;2、空化下棕榈油更适合作为有机分散介质;交联剂以W/O乳液的添加方式为宜;3、开孔率小,且比周长大的孔板,更有利于获得超细的、粒度分布均匀、分散性好,且产率高的纳米微粒。4、增大撞击压力,或提高撞击速度,所制备得到的微球粒度逐渐减小,且粒度更加均匀,产率也更高;5、采用IS-HC制备的壳聚糖纳米微球具有pH有敏感性,表现在酸性条件下的溶胀性能优于碱性条件下的溶胀性能;6、壳聚糖纳米微粒在模拟胃液缓冲溶液中的释放速率最快,小肠环境次之,而在大肠中的释放速率最慢。京尼平-5-Fu壳聚糖纳米微球体外释放动力学符合Korsmeyer-Pappas方程,药物释放机制遵循Fickian扩散。通过论文可以看出,该生查阅了大量文献,对撞击流-水力空化强化壳聚糖纳米微球的制备的研究现状、发展水平和趋势有比较全面的了解,具有较强的科研工作的能力。该论文内容恰当,数据翔实,图表规范,分析合理,结论正确,已达到硕士论文水平,同意进行硕士学位答辩。论文不足及建议:1、注意论文排版,特别是正文中的编号;文中公式、表格等按规范格式书写;2、参考文献按硕士论文格式要求进行修改,并增加近三年文献的引用;3、仔细检查全文的小书写错误并订正。,0,0,1,1,0,1,-1,-1,1,0,1,0,0,0 +1081,本论文提出基于神经网络故障检测观测器,通过设定事件触发误差与系统输出的比值.的阈值,更新神经网络权值。通过设置事件触发时刻和触发时间间隔两种不同的情况,应用李雅普诺夫理论证明模型的稳定性。本文应用了非周期神经网络权值更新律,在无故障情况下保证了状态估计误差、残差及神经网络权值估计误差的有界性。通过双连杆柔性机械臂的连续模型离散化,实现仿真验证。 论文结构合理,调理基本清晰,图标规范。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +1472,该学位论文研究重大误解民事法律行为问题,选题有一定的理论价值和实践意义,论文资料较翔实,架构较合理,论文从重大误解民事法律行为的概念、特征及构成要件出发,通过介绍我国重大误解民事法律行为的立法现状、效力及救济,并通过两大法系典型国家的相关立法考察,探索我国重大误解民事法律行为的完善方向。通过对比国内外重大误解民事法律行为的相关制度立法现状,发现我国重大误解民事法律行为的问题如下:我国“重大误解”这一称谓并不能完全涵盖民法中意思表示错误的民事法律行为;我国重大误解民事法律行为的立法方式较为混乱;我国重大误解民事法律行为的相对人存在过错时责任分配不合理;我国重大误解民事法律行为撤销权的除斥期间较为短促。所论观点有一些新意,如提出,将“重大误解”的表述改为“重大错误”;将“动机错误”、“表示错误”等特殊错误类型纳入我国重大误解民事法律行为的救济范围;明确重大误解民事法律行为相对人存在过错时表意人的赔偿责任;延长现行重大误解民事法律行为撤销权的除斥期间;等。论文作者基本把握了有关学科专业知识,写作较规范,逻辑较清楚,表述较流畅。,0,1,0,0,1,0,1,1,1,0,0,0,0,0 +1023,《基于组合赋权法的B板材公司财务风险评价及控制研究论文》一文详细研究了B板材公司的财务风险的问题,论文结构完整,层析清晰。财务风险是个理论问题,也是个实践问题,论文根据自己的研究方法得出了结论并提出了自己的对策,写作态度较为认真,但是论文的选题过于陈旧,选的案例不具有代表性,缺乏典型性。过于凸显方法的应用,忘记了论文是以问题为导向的宗旨。,0,-1,0,0,0,0,0,0,1,0,0,0,0,0 +2672,论文首先通过试验获取多种物料的特性参数,并建立物料模型;通过研究铲斗结构各参数之间的相互关系,提出铲斗结构新型设计方法,并研究了铲斗设计参数对作业阻力、铲装物料质量影响程度及变化规律的研究;然后设计出面对不同物料铲装时所需能耗低、铲装效率高的铲斗结构,并进行铲斗所受作业阻力、铲取物料质量的实验与仿真对比;最后,运用python语言,设计了面向物料多样化的装载机铲斗设计分析系统。论文选题具有较好理论意义和工程实用价值,作者能够对国内外该选题以及相关领域发展现状的进行较为清楚地归纳和总结。论文体现了作者已经具有一定的科学理论基础和专业知识体系,论文研究方法的合理可行,引证资料较翔实,论文表明作者已具有一定的独立从事科学研究的能力。论文引文规范,论文结构合理,文字表述较为准确。论文达到硕士研究生水平。论文存在如下不足:正文p1第二段的数据来源要给出参考文献。第1.2.1和第1.2.2节国内外研究现状部分,建议分类综述。图2-2中图框间隙要尽量小,即布置尽量要紧凑。部分图不清楚,如图2-6等,建议重绘成,并以矢量图插入正文。图中的变量符号要用斜体,即和公式中的保持一致,如图2-17、图3-9等。图2-18中的字体偏大。第2.4节,未说明用什么离散元软件。软件名称ug、matlab、edem等的大小写使用不规范。正文中部分逗号需改为全角状态。部分外文文献格式不规范。,0,1,0,0,1,1,-1,0,1,0,0,0,0,0 +1109,本篇论文的选题具有不错的理论意义和实用价值,契合了GIL技术的发展,从所选取的文献综述可以得知作者对本学科及相关学科领域国内外发展状况和学术动态的了解程度较高,对本选题有了较为全面深入的研究。同时,本论文提出的新见解、新方法具有一定创新性,所具有一定的价值,论文成果对GIL金属微粒防护技术的发展具有积极的促进作用。论文体现的理论基础比较扎实,对本学科及相关学科领域专门知识研究系统性高;而体现的作者分析问题、解决问题的能力较高,研究方法的科学性较强,采用了先进的模型与仿真技术进行论文研究工作。本篇论文引文规范性良好,学风严谨性良好;论文语言表达的准确性存在些许不足、逻辑的严密性高、书写格式与图表的规范性存在一定问题。,0,1,1,0,1,1,1,-1,1,1,0,1,0,1 +2416,对蚕丝纤维进行溶解,制备膜结构材料,有望成为废旧蚕丝及制品再生循环利用的一个重要途径。论文选题具有较好的实用性,研究结论对实际应用具有一定的指导意义。论文主要研究了碱醇法制备木薯蚕丝丝素材料,桑蚕丝素/壳聚糖符合膜,桑蚕丝素/木薯蚕丝丝素/壳聚糖复合模进行了工艺和性能的系统研究,在丝素蛋白溶解与提升复合膜强力、可降解性能方面取得了较好的效果。论文撰写认真,条理清晰,图表规范,实验工作量较大,实验数据分析合理。整体达到了硕士论文的要求。但所制备膜材料的用途没有明确目标,对各类性能的表征分析也就较为杂乱;整体缺乏从丝素蛋白溶解,复合膜材料制备中大分子交联等理论分析。望进行修改与补充。同意修改后参加硕士学位论文答辩。,0,1,0,1,0,0,1,1,1,-1,1,0,0,0 +1504,基于价值链的企业成本管理是一种可以弥补传统成本管理不足的新型成本管理模式,它不仅有利于减少企业的成本,而且更加有助于企业实现价值链各个环节的增值,对于企业继续保持自身活力也具有重要的理论意义和现实意义。因此企业管理者应以价值链为出发点,全面协调企业成本管理内容,控制成本,提高利润,从而获得竞争优势.论文在对国内外价值链理论和成本管理理论的相关文献资料进行梳理的基础上,以SH公司为研究对象,通过统计SH公司的相关财务数据和实地考察,了解SH公司概况及其成本管理现状,分析其在企业成本管理中所存在的一些问题,并从中得出了SH公司制定基于价值链的成本管理模式的必要性和可行性。以价值链为切入点,构建了价值链成本管理体系,通过内部、纵向、横向三个方面针对SH公司进行了价值链成本管理。论文选题具有一定的现实价值,论文研究思路清晰,研究方法较科学,格式编辑较规范。,0,0,0,0,0,0,1,0,0,1,0,0,0,0 +1495,核主泵用奥氏体不锈钢部件的加工硬化及其质量控制的研究,具有比较大的工程应用价值,论文进行大量和比较系统从多方面研究了奥氏体不锈钢激光硬化的性能指标与其对应的微观组织变化,论文研究工作量比较大,也取得了比较好的成果,论文书写基本规范,应用知识正确,论文也反应作者具有从事科学研究的能力和掌握比较扎实专业基础理论知识。论文达到相应的学位论文要求,同意进行答辩,建议授予相应学位。,0,0,0,1,1,0,1,0,0,0,1,1,0,0 +2083,学位论文《某冷轧机纠偏辊轴承座力学性能研究及可靠性分析》: 论文主要采用有限元软件对某冷轧机纠偏辊轴承座力学性能进行了仿真研究及可靠性分析,分析出轴承座的危险部位,并对轴承座进行了疲劳寿命估算,具有一定工程应用价值。论文数据基本准确,工作量欠缺,图表基本规范,具备一定从事科研工作和解决实际工程问题的能力。论文达到了硕士学位水平,建议修改后答辩。,0,1,0,-1,0,1,1,0,0,0,1,0,0,0 +2991,选题符合专业培养目标和综合训练的要求,难易度及任务量适宜。与作者实际教育背景、专业实践相关的、较为熟悉的问题,能够反映本学科在实际工作中的基本问题。写作过程中能综合运用景观设计发展系统知识,全面分析地域文化与城市湿地景观的互动关系的系统问题,综合运用知识能力强。文章结构科学合理,文章观点表达准确,用词正确,语句通顺,思路清晰,层次结构安排科学,逻辑关系清楚,主要观点突出,有一定的个人见解。文题完全相符,论点突出,论述紧扣主题。设计项目分析与调研很深入充分,图纸表达清晰并具有艺术感,设计中充分挖掘并融入民族文化,对民族文化符号的提取适度、恰当。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +446,"论文开展1-25A 雪崩整流二极管的研发与制作工作,对我国电力电子领域的应用具有深远的意义,本文的主要研究和创新点如下: (1)分析了二极管纵向结构和终端结构对雪崩功率的影响,确定了p+pn-n+非穿通结构的整流二极管结构; (2)基于TCAD仿真软件,对雪崩整流二极管的参数进行了分析及优化; (3)通过采用一次扩散、电解去除硼磷硅玻璃及终端正斜角斜面工艺优化,实现了二极管的制作,并进行了实验分析,验证了方法的有效性。 论文结构基本合理,逻辑尚清楚,基本符合硕士学位论文质量要求;论文工作表明作者已掌握了本学科相关知识,具备从事科研工作能力。",0,1,0,0,1,1,0,0,1,1,0,0,0,0 +1325,该论文选题符合当前本领域的发展趋势,具有较强的理论意义和使用价值,工作量适中;作者较详细分析研究了国内外研究现状,实验方案合理,实验数据充分合理,推理较正确,能够掌握当前本领域前沿科研成果和专业基础理论,具有较强的分析问题解决问题的能力;研究成果具有一定的实用性;专业术语运用准确,语句通顺,论文撰写格式符合规范要求。 论文中实验数据量较大,在此基础上进一步总结概括提炼会得到更有价值的信息。,0,1,1,1,1,1,1,1,1,1,0,1,0,0 +2418,仿治疗师手法的康复机器人结构设计,建立卒中患者的下肢康复训练肌肉运动的数学模型,分析设计康复机器人的控制系统,组装下肢康复机器人硬件系统并进行控制策略实验。具体如下:1、认真处理一些明显的错误,比如,P21的图2-1上面一段的倒数第二行(重复、参考文献?),P67第一段第三行。2、对插图要做适当说明便于读者看懂。比如图2-13、建议给出文内引用内容的参考文献,比如2.3节、4.1节相关内容。4、肌肉力影响因素众多,比如功能、人体形态不同等,在4.3.3的肌肉力模拟中最好能够采用多个比较样本;5、最后一章实验部分,对于实验对象的人体运动是否符合预期(机器的目的是使得人得到相应的运动)?实验误差值的评定方法描述不清。,0,0,0,0,0,0,0,0,0,-1,0,0,0,0 +1859,论文在分析植保机喷药系统的工作原理和流量控制阀的动态过程和流量特性的基础上,针对隔膜泵电动阀的构成的喷药系统,建立了系统数学模型,设计了基于单神经元的变流量喷药控制器并进行了仿真验证。以 STM32F407ZGT6 为核心设计了控制系统硬件和软件,在实验系统上进行了相关实验。论文工作表明作者具有本学科和相关领域的基本知识,有一定科学研究的能力。 论文写作条理基本清楚,图表规范。同意修改后参加学位论文答辩。,0,0,0,0,1,1,0,0,1,0,0,0,0,0 +1389,该论文针对系统存在的参数不确定性和外部扰动,分别采用自适应滑模控制、RBF 神经网络滑模控制以及基于非线性扰动观测器的神经网络滑模控制等三种方法,研究了平面二自由度机械臂的轨迹跟踪控制问题。论文源于工程实践,具有明确工程应用背景,选题具有重要理论意义和应用价值。论文结构合理、层次分明,研究内容较丰富,工作量较饱满。论文表明作者具有一定的学术水平和科研能力。,0,1,0,1,0,1,0,0,1,0,0,0,0,0 +2923,论文主要运用扎根研究法和案例研究法,选用比亚迪公司作为案例,分别就比亚迪公司的品牌价值创造路径和品牌价值评估展开研究,紧扣主题。论文从不同角度对品牌价值相关概念、品牌价值评估方法、品牌价值形成模型阐释详细全面、清晰明了。首先在基于扎根研究法探究比亚迪公司品牌价值创造过程中论证方法得当并形成了理论模型,能够较好的运用数据和图表进行分析。随后通过品牌估值的差异分析发现问题,最终得出实践启示并给出提升建议。该论文达到硕士学位论文水平。论文存在的问题及不足有:(1)没有清晰地阐述选用BrandZ法进行比亚迪的品牌价值评估理由及其与蔚来公司差异分析的理由。(2)在BrandZ法下量化品牌价值过程中,由于对某些数据及相关指标的详细计算过程获取受限,所以文章中对品牌估值的严谨性和品牌贡献差异分析的客观性有待考量。,1,0,0,0,0,0,0,1,0,0,0,0,0,0 +483,论文选题紧密联系工程实际和学科发展前沿,具有较大的工程意义和实际应用价值。作者在对国内外有关砂带打磨技术及机器人砂带打磨相关问题研究现状进行论证分析基础上,开展了论文的研究工作。通过对工业机器人打磨工件的特点分析,结合实际砂芯打磨加工工艺流程,提出了一种利用工业机器人代替人工打磨加工的新方法,选取了自动化打磨加工系统所需设备,设计柔性砂带打磨机构和定位周转台结构,创建整体系统工作站模型,为同类产品的加工提供了借鉴;通过对砂芯数据与现有夹具系统分类的分析,结合课题组的砂芯冒口自动化处理系统项目,进行夹具结构方案设计与驱动方式分析,对设计的夹具夹持范围和精度进行计算校核,防止夹具与工件不匹配而造成打磨事故。为适应机器人夹持打磨这种加工方式提出了一种末端夹具的结构设计与计算,给同类夹具设计提供了参考的资料;对本系统选用的工业机器人进行运动学分析,进行了运动学正向公式推导,推出机器人末端位姿矩阵方程,进行了运动学逆解求解,推出机器人各关节位姿矩阵方程,并验证了运动学公式正确性。在建立的工作站内利用robotart 软件进行加工路径分析,确定砂芯冒口打磨阶段中机器人末端具体运动轨迹,将编写的路径过度点构建成整体加工轨迹,后置输出轨迹驱动程序,将编写的程序导入示教器中,便可进行现场实验仿真调试。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +1984,目前,风电场仍采取事后检修、周期性维修的方法,而且运行中维护费用较高。对风机功率的精准预测将能有效提高风电利用率,鉴于此,论文就如何通过监控数据准确地提前判断出风电机的衰退趋势及健康状况问题进行研究,选题具有一定的理论意义和实践价值。 论文的主要研究工作如下: (1)收集了风电功率的历史数据,并通过不同的筛选模型对其进行了预处理; (2)基于 ISSA-LSSVM(改进麻雀搜索算法-最小二乘支持向量机)模型对风电机组的功率进行了预测; (3)结合RBF 神经网络预测模型,构建了组合模型对风电机组的功率进行了预测; (4)基于 RHI 对风机机组的运行健康状态进行了预测。 论文结构合理,篇幅适中,逻辑性较强,论述也比较清楚,研究基础较为扎实,反映论文作者掌握了本学科的理论基础和专业知识,论文达到了工业工程专业硕士学位论文的水平。,0,1,0,0,1,0,0,1,1,0,0,0,0,0 +1418,该硕士论文选题正确,论文针对采煤矿用机械发展最新需求,开展低速大转矩永磁电动机设计与关键技术研究,不仅具有理论意义,而且具有非常重要的实际应用价值,该研究成果对于提升我国采煤机械的装备技术水平具有很重要意义。作者对国内外矿用低速大转矩永磁电机技术发展状况有较为深入的了解,对目前矿用低速大扭矩电机技术发展所存在的问题较为明晰,论文内容对学科发展起到一定促进作用,是学科研究的前沿性课题。 论文针对一台矿用低速大转矩永磁电动机开展了相关理论分析与设计工作,设计思路清晰,研究了影响低速大扭矩永磁电动机性能的结构、永磁体嵌放方式、齿槽转矩等重要因素,并开展了相关电磁-热问题的理论研究工作。针对矿用低速永磁电机技术要求,分析了低速直驱与半直驱的结构特点,进行相关仿真设计研究,这些理论工作对提升该型永磁电动机设计技术水平,做出了贡献。 该硕士论文有一定的理论水平,反映出该生具有较好的独立从事科研工作能力,掌握一定专业理论知识的深度和广度以及较为严谨的科学态度。,0,1,0,0,1,1,0,0,1,0,1,0,1,1 +1655,论文利用图像处理和深度学习方法对考场人数检测和考生异常行为识别进行了研究,根据考生行为规范,对考生异常行为进行了分类,制作了用于相关算法研究的考场异常行为数据集,构造了一种基于SSD算法的考生目标检测方法,实现了考场中人数的检测;分别利用模板匹配和YOLOv3算法实现了考场中考生异常行为的识别。论文的创新体现在相关算法在考场环境下的应用,属于应用创新类研究,论文选题具有一定的应用价值。论文调理清晰,写作较规范,工作量一般。论文工作表明作者基本掌握了本学科的基础理论和相关专业知识,具有一定的科学研究能力。,0,1,0,-1,1,1,1,0,0,0,0,0,0,0 +2870,论文应用EVA模型的原理和方法,并根据芯片制造企业的特殊性选定EVA会计调整项目,采用EVA两阶段增长模型对中国大陆地区的芯片制造企业龙头中芯国际(688981)进行价值评估。结果表明修正后的EVA两阶段增长模型适用于芯片制造企业。论文的完成对于资产评估从业人员、个人投资者、机构投资者、企业管理者和政策制定者都具有重要意义。但是,论文还存在一些问题:(1)摘要略显啰嗦,应该更精要,对研究背景可简写,重点放在研究结果结论的叙述。(2)正文种标题需要进一步精简,而非将一句话作为标题,建议修改。比如文献综述部分:1.探究使用EVA作为绩效指标对于企业管理效率的影响1.探究使用EVA作为绩效指标对于企业管理效率的影响,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1512,尽管研究证券公司风险管理问题的已有学位论文较多,但当前研究该问题仍然有现实意义。论文的选题有一定的理论与现实价值。论文对相关文献的综述表现尚可,研究结论对实际工作有一定参考价值。论文的创新性表现一般,论文所体现的业务水平表现尚可,论文所体现的写作能力表现尚可。 纵观全文,观点较为明确,结构合理,逻辑尚可,行文较为流畅。,0,1,1,0,0,0,1,1,1,0,1,0,0,0 +305,该文选题是网络传播领域的重要问题,受到中外法学界关注,国内外研究者积极开展了研究,各国实务上亦有新思路、新措施,但仍然需要深化研究,是难度较大的课题。文章有一定的文献资料基础,观点较为明确,结构较为合理,论述有一定深度,能运用本学科的基础知识和基本理论展开研究,结论具有显著的现实针对性。表述规范流畅。,0,1,1,0,1,1,0,1,1,0,1,0,1,0 +223,该论文从理论和实践两个方面剖析习近平群众观形成的条件,通过对习近平群众观的理论来源、形成过程、及主要内容的研究,体现了习近平的群众观点对于马克主义群众观是既一脉相承并且有所创新的。并运用唯物史观的方法从经济发展,全面从严治党,增强文化自信和构建新型国际关系等四个角度解析了习近平群众观的具体践行途径。全面系统梳理了习近平群众观提出了一些实践上的新思路。学科知识的掌握较为完整,写作规范性,逻辑性顺畅。,0,0,0,0,1,0,1,0,1,0,0,0,0,0 +1960,论文主要研究基于多智能体的能源互联微网分布式协同控制,选题对于能源互联微网运行控制研究具有理论研究意义和实际应用价值。 论文针对能源互联微网的电压和频率稳定以及经济运行的控制目标,设计了分布式的二层电能质量控制和三层经济优化控制策略。针对集中式控制的可靠性问题,构建基于多智能体的能源互联微网分布式架构,采用分层分布式控制方式; 底层采用下垂控制策略实现各分布式电源的功率分配; 针对下垂控制存在的电压和频率偏差问题, 二层控制采用基于多智能体的有限时间一致性算法,进行偏差调节; 针对系统经济优化运行问题, 三层控制采用基于多智能体的增量成本一致性算法, 以总发电成本为目标函数、 供需功率平衡为约束, 以分布式电源的增量成本为一致性变量, 进行经济优化控制。最后仿真结果验证控制策略的有效性。 论文的研究方法和内容均已达到本学科硕士学位论文的要求,论文结构合理,叙述清楚,写作规范,反映作者具有本学科比较扎实的理论基础和专业知识。,0,1,0,0,1,0,1,1,1,0,0,0,0,0 +1289,该论文的选题把思想政治教育专业与构建共同体联系起来,是思想政治教育专业关注的热点问题之一,选题成立,资料比较丰富,论述基本清楚,并且,从理论和实践两个方面探讨了共同体的相关问题,比较全面,特别是关注和讨论了生态共同体的概念和理论,在视角上有一定的新意。 论文的主要问题是逻辑关系和结构需要修改和完善,主要是两条逻辑关系的线索应该更加明确的阐述清楚,在构建共同中存在的问题、原因分析和对策建议上如果能够有所体现,则结构和逻辑关系可能更好。体详细的修改意见见下文。,0,1,1,0,0,0,0,1,-1,0,0,0,0,0 +2109,由于社交媒体虚假信息的表现形式复杂、传播途径广泛、传播迅速等特征,社交媒体虚假信息传播的危害性极强,负面影响更大,因而完善对社交媒体虚假信息的法律治理,十分紧迫。故论文选题具有较强的实践意义,也有一定的理论价值。论文对社交媒体虚假信息的基本概念进行阐述,在此基础上梳理社交媒体虚假信息的相应特征及治理的必要性,分析我国社交媒体虚假信息法律治理的不足之处,在对国外社交媒体虚假信息的法律治理进行分析并予以借鉴的基础上,针对我国社交媒体虚 假信息的法律治理从事前、事中和事后三方面提出了建议。 论文所提观点基本正确,对实践也具有一定的指导意义;论文结构基本合理,也有一定的论证。但是论文还存在不少问题,需要修改后才能参加答辩。,0,1,0,0,0,0,0,0,1,0,0,1,0,0 +1809,论文以轨道交通断路器作为研究对象,在分析其电磁操动机构动作原理的基础上,以贝叶斯正则化神经网络方法完成电磁操动机构的分闸时间预测,针对老化和磨损引起的预测偏差给出了在线的分闸时间补偿方案;以递推最小二乘法完成对电流过零点的预测,针对频率偏移造成的预测误差提出了改进方法,神经网络在电磁操动机构的分闸时间预测满足分闸时间预测的精度要求,递推最小二乘法的预测结果能保持足够的精度,并设计了短路电流及电网频率偏移实验,验证所提短路电流零点预测方法及改进方法的正确性和有效性。作者具有扎实的专业理论知识和工程实践能力,论文方案合理,条理清晰,逻辑性强,达到了硕士学位论文水平。,0,0,0,0,0,0,0,0,1,1,0,0,0,0 +370,论文“义齿物料立体仓库管理系统设计与实现” 针对义齿立体仓入库、出库优化问题进行研究和分析,作为控制科学与工程方向的题目研究,选题具有实际意义和价值。研究方向与学科方向一致。 主要工作和内容包括:开发了义齿立体仓库的软件系统、进行了基于TOPSIS算法对入库方案评价方法进行了研究和分析,对企业的四种方法进行了评价,能够给出最优方法;对义齿仓库管理系统的出库拣选优化问题,通过建立物料出库优化模型,采用遗传算法进行了优化设计,并将用遗传算法做了结果分析,进行了系统实验,得到了仿真实验数据。完成了立体仓库软件系统的设计和开发,论文的工作量较饱满,基于义齿的立体仓库入库、出库算法分析与设计方法方向正确,有一定的实用性和优越性。 总的来看,论文研究内容面向实际工业实际应用,研究内容充实,工作方法方向正确,研究工作具有实际意义。论文结构较合理、排版规范。,0,1,0,1,0,0,1,0,0,1,0,0,0,0 +2548,该文研究了颅内出血。颅内出血是早产儿并发症中较为严重的疾病。回顾性研究有助于临床医生加深对该疾病的理解,促进疾病的及时诊断以及适时采取治疗,加强疾病预后。基于该研究背景,本文通过对某市妇幼保健院的早产儿住院数据展开研究。结合统计知识,对数据进行清洗,绘制统计图表并选用合适的统计检验方法对颅内出血危险因素进行单因素分析,最后基于数据类不平衡的背景采取多种建模策略进行建模,并进行模型比较与评价,确定合适的预测模型。总体来说达到硕士学位论文水平,比较优秀,同意答辩。但可考虑如下方面:采用机器学习时是否考虑了对数据进行交叉核实验证?绘图时(如图6-21)可以再添加除了颜色意外的区别,尽量采用矢量图,更加清晰美观。,0,0,0,0,0,0,0,0,0,-1,0,0,0,0 +2482,该论文以G市Q镇社工站为例,探究社会工作作为多元治理主体之一参与基层社会治理的可行性、现状、具体实践过程、面临的困境及行动策略,具有一定的理论价值和现实意义。论文在全面梳理相关研究成果的基础上,运用访谈、行动研究等研究方法,研究方法相对科学。提出的建议具有操作性和可行性,行文规范,文字流畅,体现出作者具有一定独立从事科学研究的能力。论文研究问题还不够聚焦,应该意重点突出社会工作站运行情况、存在的问题,问题的原因及其相关建议。要把同该社工站的建设情况作为个案开展研究,而不仅仅是记录该社工站运行情况。同意参加论文答辩。,0,1,0,0,0,1,0,1,0,0,-1,0,0,0 +1238,笔式交互是人际交互的重要研究方向之一,模式切换是笔式交互的常规任务操作。传统的模式切换不仅造成时间和空间上的浪费,降低交互效率,且容易造成用户疲劳。本论文开展多通道笔式交互的模式切换技术研究,提出基于笔通道实际值、笔通道离散化、笔通道增量化模式切换技术的设计方案,分别开展实验,并从定性和定量的角度对不同类型下的模式切换技术性能进行评估。这些实验结果可为相应模式切换技术应用提供建议。本论文还将三种最优的模式切换技术(压力实际值、倾斜角离散化、压力增量化)与传统模式切换技术的性能相比较,从切换时间、学习效应、准确性、错误率和主观评价等方面进行了综合分析。论文最后还对不同模式切换技术的融合使用策略进行了分析,并提出了若干应用场景。本论文的创新性和技术性良好,实验内容和讨论较详实,且论文作者取得了一定成果,建议修改后直接答辩。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2983,纤维素是世界上最丰富的天然高分子,属于可再生天然资源,纤维素酶可降解纤维素生产葡萄糖,再进一步转化为其他可利用物质,对资源再利用和经济发展有着重要意义。本论文从螺蛳养殖土样中筛选了一株产纤维素酶的单胞菌,进行了鉴定、基因组分析和产酶条件研究。论文选题正确,应用前景良好。该生查阅了与本论文相关的文献,在此基础上进行了科研,设计方案基本合理,技术方法正确,该生基本掌握了本领域基础知识,具备一定的独立科研能力,论文逻辑结构清晰,文字表达不够简练,建议作为硕士学位论文安排答辩。但本文尚存在写作方面粗糙和实验结果解释不合理等诸多问题,认真修改:P13,“2.2.5缓冲液”标题与内容不符。P15,“适量稀释的酶液0.5mL”这个酶液是如何制备的?柠檬酸缓冲液缓冲范围是3.0-6.6,你2.5-8的缓冲液是如何配制的?P18,“2.3.4”节,当测定一种酶学性质时,要写明其他测试条件。同样,在P47,“4.3.1和4.3.2”节中,考察一个因素对产酶的影响时,要写明其他有关菌株的培养条件。P50,“4.4.1摇床转速对产酶的影响”节,应该是酶的活性快速下降,而不是产量下降。可能的原因解释不妥。P50,“4.3.2培养基装液量对产酶的影响”,装液量越多,培养基中的溶氧量越高?溶液含氧量与装液量无关!P52,接种量过大,培养基中的体系温度升高??没有道理!4.3.5培养时间对产酶的影响,随着培养时间增加,OD值下降?请解释!文中因素对酶活性和菌株生长的影响实验需要将实验条件写全。图4-7,图4-8图题叙述不清楚。,0,1,1,0,1,1,0,-1,1,1,0,0,0,0 +552,论文以A1CoCrFeNiSi 高熵合金为研究对象,通过改变Al和Si 的含量,采用XRD、SEM、EDS等方法,研究了Al和Si 元素对合金相组成和微观组织演变的规律,并测试了合金的硬度和耐磨性。选题具有一定的理论意义和实际应用价值;论文写作规范,思路清晰;作者对论文相关的专业理论知识掌握较好,有较强的独立从事科学研究的能力,能够独立完成论文中的相关工作。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +882,"1.学术规范问题 (1)""正文之前的页码标注有问题,应该连续编序,而不能出现两个I, II.""此问题已解决。 (2)“第一页第二段,“This report chooses the first chapter of a 15,000-word section of the book University and School Collaborations during a pandemic, sustaining educational opportunity and reinventing education as the source text of this case study.”书名University and School Collaborations during a pandemic, sustaining educational opportunity and reinventing education未斜体且部分单词的首字母未大写” , 此问题已解决。 (3)“3.1与其下面的小标题之间缺少衔接语,显得非常不连贯,3.1 Comprehension, 3.1.1 Insufficient Professional Knowledge, 3.1与其下面的几个小标题3.1.1-3.1.3之间什么关系?至少要在3.1那个部分快结束的时候,加上一句话交代下面将要讨论影响对原文理解的几个要素,有这样承上启下的话,语言才更连贯,逻辑才成立。包括3.2、3.3与其下面的子标题部分均存在这类问题,显得结构比较怪异,不连贯。”,此问题已解决。 (4)“第13页第五段,“According to an article entitled A Brief Discussion of Democracy Studies by the Trilogy Institute indicates “There are different forms of nationalism, of which “ethnic nationalism” (族裔民族主义) is regarded as “exclusionary nationalism” (排他性的民族主义).”英文文章名不需要斜体,而要使用双引号。另外,文中很多其他地方都将文章名斜体了,要改过来。”,此问题已解决。 (5)“最后一章结语部分,不符合常规,一般要回答研究问题,指出研究不足及对未来研究的建议。”,结尾已重写,此问题已解决。 2.语言使用问题 第一次评审中发现的语言问题已解决。 3.参考文献格式问题 第一次评审发现的格式问题也已解决。",0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +1822,论文以某地铁 A 号线的盾构机作为研究对象,针对维护管理体系、点检维护、预防性维护等方面存在的问题,研究基于 TPM 的盾构机管理体系、自主保全与预防性维护,论文选题具有较强的工程应用价值。 论文涉及设备管理、TPM、软件开发等,内容较为丰富,技术路线较为合理,层次结构较为清晰,文笔尚属流畅,格式基本规范。 论文成果应用实施切实有效,表明作者对本专业的基础理论和课题方面的知识掌握较为深入,具备了一定的运用所学知识分析解决专业问题的能力。 综上述,论文达到学位论文要求的水平,建议修改后参加答辩。,0,1,0,0,1,1,1,1,1,1,1,0,0,0 +1901,"论文针对高功率密度感应电机的设计及温升计算开展研究,分别讨论了电磁设计、损耗和温度计算、通风口影响等问题,研究涉及范围较宽,但是作者对工程性设计缺少了解,且研究缺少深度。部分结论值得商榷,如: 1、“采用“铝导条+铜端环”转子结构可保证电机具有较好起动能力的同时又具有电机加工制造成本低,电机效率高等优势”, 铝导条和铜端环在工艺上是否存在异种金属熔合问题,作者并未深入了解。 2、“采用定子分层模型计算的铁耗更加准确”,未明确比较的对象,且文章未给出样机测试结果分析。 3、文章大部分篇幅涉及通风孔,但是未给出通风口设计指导性结论。 4、在通风计算时,将入口温度固定为同一速度;实际设计工作中应考虑风扇选型及通风损耗。",0,0,0,0,0,0,0,0,0,0,-1,0,-1,0 +2061,文章围绕电动汽车用混合励磁同步电动机在结构优化设计方面展开充分研究。首先,研究了混合励磁同步电动机的基本结构与运行原理,为提高优化效率,选择响应面法的代理模型,通过选择二阶响应面函数构建响应面模型,得到目标函数与优化设计变量之间的关系。其次,通过增加量子交叉和变异环节对传统量子遗传算法进行了改进,提高了计算精度和速度,并对算法进行了测试与验证。最后,以齿槽转矩为优化目标,利用改进量子遗传算法对永磁体宽度和厚度、铁磁极宽度和磁轭高度四个结构参数进行了优化设计,并通过有限元分析进行仿真验证。本文写作逻辑通顺,详略得当,理论分析和数学模型论述充足,仿真和实验完成较好,整体比较优秀。,0,0,0,0,1,0,0,0,1,1,0,0,0,0 +1222,本文针对制备良好性能的电流来达到脱盐效果这一目标开展了工作,探究了混合浆料的流变特性对电极的形貌和性能的影响,并尝试建立流变特性与电极性能的对应关系。该研究取得了部分研究成果,所制备电极具有一定的脱盐效果和循环能力。但该研究未从电极材料组织结构对性能的影响方面进行深入探讨,同时,论文撰写格式方面还需认真检查。,0,0,0,0,0,0,-1,0,0,0,0,1,-1,0 +2104,永磁直线同步电动机具有振动系数小 、功率密度大、效率高等优点, 在高动态、高精度伺服系统中得到了广泛的应用 。永磁直线同步电动机的无位置传感器控制是国内外研究的热点问题。 作者提出了一种能够根据系统运行状态自适应调节滑模增益的算法,设计了自适应增益滑模观测器(SMO)。为了减小抖振产生的输出曲线毛刺和误差函数复杂度,设计了一种基于正切函数的锁相环,与自适应增益SMO相结合,进行了仿真验证。 论文选题和研究成果具有一定理论意义和实用价值,论文写作规范性与文字表达能力需要提高。 从论文内容难以直接得到自适应增益SMO配合基于正切函数的锁相环其控制性能比传统SMO配合锁相环更好的结论,需要进一步的仿真和实验验证。,0,1,0,0,0,0,-1,-1,0,0,0,0,0,0 +1214,本文针对轮毂缺陷的智能化机器视觉检测方法进行研究,所做工作如下: 1.搭建了一套将机器视觉检测系统与机械臂有机结合软硬件系统; 2.研究了一种通过运用种灰度 分布曲线分析对轮毂辐条进行有效分类的方法; 3.根据轮毂辐条分类信息利用机械臂的运动功能分类拍照,从而完成一个相机拍多个不同所需图像的智能化摄像目的。 4.对辐条上的磕碰伤缺陷进行了检测和分析。 本文结构完整,内容详实,阐述清晰,所做的工作有很好的应用价值。反映出作者有较扎实的理论基础和不错的实际工作能力。,0,0,0,0,1,1,0,1,1,0,0,1,0,0 +2855,"论文以水利空化强化固体酸催化剂催化植物油环氧化为研究对象,选题具有一定的科学意义和实用价值。论文首先通过沉淀和浸渍法制备了固体酸催化剂,并进行了形貌及特性的分析和表征,考察了不同的制备因素的影响;其次,论文考察了水利空化技术对固体酸催化大豆油环氧化过程的强化作用,通过单因素实验和响应面法优化出最优反应条件,并进行了验证;最后,论文进行了反应体系的动力学研究,并对反应过程进行了模型描述,对强化机理做了初步分析。论文实验内容完整,实验方案技术路线正确,数据详实。作者熟悉本领域国内外的研究进展和研究动态。论文写作层次清楚,图表表达正确,符合科技论文的写作规范。同意答辩。有以下问题建议作者进行完善或修改。1、建议分析比较各催化剂的成本。进一步分析固体酸催化剂的稳定性和重复使用性,明确选题依据。2、建议进行EPR分析,以确定体系中其他自由基的存在。3、建议进行自由基掩蔽或自由基淬灭实验,以确定羟基自由基的影响及贡献。4、建议对水利空化技术的设备文丘里管内的流体流动状况进行CFD流体力学分析与模拟,以确定放大效应,为工业应用奠定基础。5、建议对流体的表面张力和粘度进行分析,确定微纳气泡的影响。6、从搅拌和空化技术的反应效果比较看差异并不是十分明显,建议进行投资成本或运行操作成本比较。7、文中尚有部分内容有格式规范错误,建议认真修改。例如,4.5内容格式,5.1内容中的标点符号,参考文献[3],[23],[51],[65]等。",0,1,1,0,0,0,1,0,0,1,0,0,0,0 +1573,论文参照标准中的模拟方法,对客车正面100%碰撞刚性壁障进行了仿真,仿真结果有效。依据乘员损伤评价指标,对假人的头部、胸部和腿部损伤进行了评价分析,结果表明,假人的头部和腿部的伤害值在规定范围内,颈部受力超过规定的限值。基于回归分析法对变形与速度的关系进行分析,回归曲线对实际值的拟合程度较好,应用碰撞变形回归方程反求碰撞速度的误差未超过2%,得出了依据碰撞变形回归方程反求碰撞速度是可实现的。研究事故推演再现方法,对客车正面碰撞事故推演系统进行了模块化设计及功能实现设计。 总之论文选题正确,符合经济建设需要;文献综述全面;研究成果具有理论意义或实用价,具有一定的创新;作者具有独立从事科学研究的工作能力 且掌握专业理论知识的深度和广度;协作严谨、合理、表达清楚。,0,1,1,0,1,1,0,1,0,0,0,1,0,0 +361,科学合理地评价工效学状态,对于提升操作工的工时利用率具有重要的理论意义和实际价值。论文运用小波去噪法对实验数据进行预处理,快速傅里叶变换方法对实验数据进行分析处理,得出评价疲劳的脑电波指标,根据疲劳评价指标制定了基于工效学的焊接车间新工时利用率评估方法,并对新老工时利用率评估方法的评估结果进行比较分析。研究成果对于提升工时利用率具有一定的理论意义和实际价值。作者查阅了本领域大量的国内外相关文献资料,掌握了该领域最新研究动态。论文的主要工作包括: (1)分析了现有工时利用率评估方法所存在的问题,发现工时利用率评估方法不能客观反映操作者的疲劳状态问题; (2)根据疲劳评价指标制定了基于工效学的新的工时利用率评估方法; (3)运用Jack人因虚拟仿真软件,对新制定的工时利用率评估方法进行验证,结果表明,新工时利用率评估方法符合实际情况,可以普遍应用于轿车焊装车间操作者的工时利用率评估。 本论文组织结构合理,研究思路清晰,研究内容较为充实,所开展的工时利用率评估方法研究具有可行性和有效性,主要结论可靠。,0,0,1,1,0,0,0,0,1,1,1,1,0,0 +1206,本文针对法官责任追究制度进行研究分析,选题具有重要性,特别是针对近年来我国出现的司法冤案和错案在完善法官审判制度和避免冤假错案上具有很大意义。但是文章在架构,问题意识,文献和整个论证过程中存在较多问题,影响了整体质量。包括案例都没有,如何证明自己的观点!提出的对策建议是否具有可行性?因此需要修改后答辩。具体修改意见如下。,0,1,0,0,0,0,-1,0,0,0,0,1,0,0 +525,论文研究了风电场短期功率区间预测的方法,选题具有较重要的应用价值。 论文主要工作如下: 1 对风电功率预测的不确定因素进行了分析。 2 研究了一种基于极限学习机的风电功率预测模型(B-ELM)。 论文结构较为合理,语句较通顺,符合论文撰写规范。 论文反映出作者已掌握本学科较扎实的基础理论和较系统的专业知识,具有一定的科研能力。 同意提交工程硕士学位论文答辩。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1328,该论文选题角度符合我国工业4.0智能制造的应用需求,也顺应了智慧医疗领域中康复医学的临床治疗需求,具有良好的研究理论意义和成果应用前景,未来可产生良好的智慧工业与智慧医疗教学与实践领域经济效益。 该论文文献综述严谨详实,体现了作者踏实致学的科研态度。论文对生物电人工智能领域应用的国内外研究背景进行了较好的梳理,并洽当地选取了自己的研究方向,进行了基于现有成熟研究成果的系统集成优化的深入研究。论文的理论架构体系构建合理,专业功底扎实,技术路线清晰,关键技术把握准确,实验数据丰富且可重复性强,研究结论可性度高。论文体现出了较高的独立科研能力。,0,0,1,0,0,1,0,0,0,0,0,0,0,0 +2851,论文以汽车企业为研究对象,以优化传统模型构建汽车企业整体价值评估模型,并以案例探讨模型适用性。论文认为混合模型适用于汽车企业的价值评估,改进EVA法和实物期权法相结合使评估结果更全面准确;ARIMA模型的引入能更加客观准确的评估企业的现有资产价值。在汽车企业业务调整转型的背景下,对评估方法的优化具有一定的现实意义,论文研究成果具有应用价值。论文内容较完整、结构较合理、形式较规范、实证部分阐述较详细。不足之处在于缺乏有指导意义的建议,论文创新性不够,建议作者参考近五年的国内外研究资料。整体而言,论文质量合格,经适当修改之后答辩。,0,0,0,0,0,0,1,0,1,0,0,-1,0,0 +1871,论文针对步行康复训练机器人柔顺化控制技术展开分析与研究,选题具有重要的实用价值和良好的应用前景,研究方向明确。 论文的主要成果和工作包括: (1)设计了一种采用多通道近距离激光传感器的人机交互相对距离采集装置,研究了一种改进 LSTM 模型,可以有效预测腿部交互距离。 (2)研究了一种基于距离-速度转换的用户意图速度预测算法,研究了用户突然变速引起机器人抖动问题的处理方法,并进行了实验验证。 (3)研究了基于改进 LSTM 模型的步态相划分方法,实验验证了柔顺化控制方法的有效性。 论文结构清晰,层次分明,重点突出,方法合理,数据可信,图表规范,语言表达流畅,对相关领域的国内外技术现状和发展趋势评述得当。论文工作量饱满,研究有独到见解。论文工作表明,作者在本学科领域已具有坚实的理论基础和系统的专业知识,具有独立从事科研开发工作的能力。 论文已达到硕士学位论文的要求和水平,同意组织作者进行硕士学位论文答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2336,本文选题合理,具有重要的理论意义与使用价值,论文整体结构合理,写作规范,达到了硕士学位论文水平。但还存在着以下问题:(1)英文摘要中有语法错误或用词不当。例如paper,应区分一下paper、thesis、dissertation等单词的区别;不少地方缺少冠词。(2)作为硕士论文,建议删除软件截图(如P64的图5-3),直接在文中说明相应参数即可。(3)注意参考文献的新颖性,参考文献的外文文献普遍不够新颖,尤其是非华人(单从作者名字直观来看)的文献普遍发表较早。(4)注意标点符号的使用,例如P56中“实验结果如图4-22所示:”应该将冒号改为句号。(5)第4章的实验部分,建议作者给出实验结果与理论结果的详细对比,尤其是理论结果是如何得到的。,0,1,0,0,0,0,-1,0,1,0,0,0,0,0 +1628,论文基于注塑机注射速度的数学模型,提出了注射速度的闭环PD型ILC策略,并进行仿真研究;为了解决模型失配问题,进一步提出了基于修正项自适应实时优化的注塑机注射速度迭代学习控制方法。该方法引入包含实际过程数据的0阶修正项和1阶修正项,可以充分利用历史批次的生产数据,并有效地解决不确定性对控制效果的影响。论文有较高的实际应用价值。 论文层次清楚,语言通顺,图表规范。论文达到了专业硕士学位论文水平,建议修改后直接答辩。,0,0,0,0,0,0,1,1,1,0,0,1,0,0 +964,论文摘 要部分的第二行“表现的是女主人公卡门追求自身爱情的主题动机之曲‘’语句不通顺。第二章第三节“浓厚的民族舞曲风格”中哈巴涅拉舞曲的带有附点音符的 2/4 拍节奏音型谱例有错误。 文章中所有明引都应该注明出处,应适当地将一些暗引改为明引,并且适当地添加脚注和尾注。 引用的法语歌词翻译应前后一致,不可以有的词有有的词没有。 文章第三章第四节第二段第二行“那些不太庄重、内秀的女性形象更契合女中音的音色特点”这样带有结论色彩的语句是否有可考性。,0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +3021,针对现有糖分和多酚分析方法存在的不足,本文采用空间角转换的化学计量学方法结合光谱分析技术,通过对蔗汁清汁、原汁红糖制备过程样本及红糖产品的复杂体系光谱信号的分析及算法优化,建立了原汁红糖生产过程中多组分含量的快速分析方法,进一步提高了原汁红糖制备过程质量监测效率,为食品安全、食品质量的监测提供了一种有效可行的方法。论文选题有重要理论和实际意义,研究结果具有重要的学术参考价值。论文结构合理,思路清晰,逻辑性强,参考的文献资料与论文内容结合紧密,研究结果具有一定的创新性。但仍存在以下不足:1、蔗汁中糖分和多酚种类繁多,且组分之间在特定条件下能够相互影响和转化。本文选定了两种比较典型的蔗糖和绿原酸进行研究,若是能够同时对多种组分进行原位/在线检测,论文会更加出色。2、论文部分语句或图片需进一步完善,请仔细检查。例如:1)1.5小节第三部分:“并采集蔗汁体系样本及的绿原酸……”,多了一个“的”;2)图3-5的处理需进一步完善,例如数字的格式等;3)全文摄氏度符号的格式需统一。总之,论文反映出作者阅读了大量相关文献,对专业基础理论和课题方面的知识掌握牢固,能利用所学知识解决研究课题中的实际问题,具有较强的科研工作能力和动手能力。论文条理清楚,实验方案合理,实验方法可行,语言表达准确,图表规范,数据可信。本人认为该论文达到了硕士学位论文授予水平,可申请答辩。,0,1,0,0,1,1,-1,1,1,0,0,1,0,0 +1152,本文是对采煤用途的低速大转矩永磁电机进行分析与研究,研究内容与研究方法对特种电机的研制具有一定的理论导与借鉴意义。 论文重要贡献如下: 1. 文中首先从永磁电机负载-电流曲线分析影响电机输出更高转矩的原因,找到并解决影响电机输出能力的方法,并总结出永磁电机内部结构尺寸、绕组参数对电机输出转矩的影响规律; 2. 以55kW采煤用低速大转矩永磁电机电磁设计为对象,以提高电机过载能力为目标,对电机的结构参数进行对比和分析,最终保证电机达到2倍过载要求; 3. 通过有限元法对电机进行仿真,得到空载反电动势、输出转矩等重要参数曲线,对输入电流参数化验证电机过载能力,利用Motor-CAD对电机额定运行和短时过载运行时的温升进行校验,保证电机的可靠性。 4. 在电机过载能力一定的条件下,对直驱式永磁同步电机与半直驱式永磁同步电机参数和性能进行了对比分析,得出永磁同步电机在成本、效率、转矩密度等方面的优越性。 论文行文规范、图表清晰、仿真实验充分、结论可信、工作量充足,达到硕士学位论文的标准,可以参加答辩。,0,0,0,1,0,0,1,0,0,1,1,0,0,0 +2892,论文针对硅材料在应用中存在导电性能一般及体积效应明显等问题为切入点,通过引入碳膜提升复合膜电化学特性缓解体积效应,对Si/C复合薄膜的最佳制备条件进行了研究,对其储电机理进行了解析。研究选题和研究内容围绕当下研究热点展开,具有一定的理论和现实意义,论文工作量充实,对实验结果的分析论证清晰有力,文献综述规范。文章格式符合学术规范,反映作者具有一定的独立科研能力,论文达到了硕士学位论文水平。论文存在以下不足,建议进行修改:1.摘要在列举实验过程与结果方面内容过多,如何通过这些结果获得所需要的机理规律,对Si/C复合膜的制备有何指导意义,其科学意义是什么?需要进一步凝练。2.论文某些部分语句不够通顺,尤其在1.5研究内容和研究意义一节。3.论文主要研究了3个内容,围绕具体的研究内容和研究手段,国内外已经开展过的和正在开展的研究工作有哪些,论文的创新点是什么,绪论中没有直接交代清楚。,0,1,1,1,0,1,0,-1,-1,0,0,-1,0,0 +1322,该论文围绕着电动汽车V2G的充放电智能控制进行研究,论文选题具有重要的理论意义和应用价值。 论文首先分析了电动汽车V2G系统的工作原理,介绍了变换器的拓扑结构和控制技术等内容。通过对同步发电机数学模型的分析,为基于并网变流器的虚拟同步发电机数学建模奠定了基础。在此基础上,详细探讨了电动汽车V2G虚拟同步机的三相变流器、DC-DC变换器、LCL滤波器工作原理,设计了其功率控制策略,通过MATLAB/SIMULINK进行了仿真验证。结合模糊控制和电量计算单元,对电动汽车V2G的功率进行调节,满足电网削峰填谷的作用,功率控制算法通过仿真进行了验证。 该论文整体上内容充实,结构完整,写作规范。论文工作表明了作者在电动汽车V2G系统构建及控制方法方面有着较好的研究基础。论文方法通过仿真进行了验证,表明方法的有效性。论文工作已达到硕士学位论文要求,同意其参加硕士学位论文答辩。,0,1,0,1,1,0,1,0,1,1,0,0,0,0 +884,本论文以顺应论为理论基础,通过分析 must、may、might、will、would、shall、should等英语情态动词的语义特点和语用特点来证实英语情态动词的语义意义和语用意义处于互动之中。论文的文献综述较为全面,基础知识与基本理论较为扎实,研究问题设计较为合理。论文行文较流畅,语言表达较准确,逻辑性较强,格式基本合乎要求。研究结论较为真实可信,结构较合理,符合硕士论文相关写作要求与规范,具有一定的实践意义和应用价值。论文已达到硕士论文的学术水平,可以参加答辩。,0,1,1,0,1,0,1,1,1,0,1,0,0,0 +2266,本论文利用共振光散射光谱研究了黄曲霉毒素B1(AFB1)与DNA之间光谱特征,引入了结合饱和值的概念和算法,计算出AFB1的结合饱和值;然后基于对体外AFB1和DNA相互作用强度的研究,将负载在磁珠上的DNA用于水中AFB1的去除,系统研究了其吸附动力学、粒子间扩散模型、等温吸附模型、吸附热力学等参数,最后将其应用于花生油中AFB1的去除,并探究了花生油和DNA溶液体积比例对去除效果的影响。本选题具有较好的创新性,工作量饱满,数据表征充分,分析合理。不足之处:部分图表不够清晰,部分语句不通顺(如61页,第(4)部分,第二行),建议修改完善。整体来讲,本论文已达到了硕士论文水平,同意进行硕士学位论文答辩。,0,1,0,1,0,0,-1,-1,0,0,0,0,0,0 +2970,文章选题具有一定的现实意义和指导价值,文章资料较为充分,论述符合逻辑,语言表达比较通顺,论述前后表达基本符合逻辑,基本达到了硕士毕业论文的要求。文章有部分错别,比如25页倒第7行。文章对泡泡马特未来收益的增长率,是否恰当?新冠的影响是否考量?文章部分内容将新零售转型企业和初创期企业混到一块,传统DCF模型不适用于新零售企业是因为企业所处行业还是所处阶段,要厘清。验证结论的正确性时,直接选择基准日的市场价值,如何验证市场价值的合理性?,0,1,0,0,0,0,-1,1,1,0,0,0,0,0 +459,论文讨论了物流信息管理问题,列出了物流信息系统常规使用的信息技术、物流管理的一些概念与方法,介绍了物流管理系统的的结构与实现的功能,并用遗传算法完成一个车辆路径优化的理论算例。最后介绍了几个物流管理系统的界面设计。 论文选题具有一定的实际应用价值,但论文学术水平一般,工作量严重不足,该论文未达到硕士论文应有的水平。 建议补足工作量,视补充的工作成果情况再确定是否可参加答辩。,0,1,0,-1,0,0,0,0,0,0,0,0,-1,0 +1372,该论文针对H型运动平台的动力学建模和同步控制问题等方面进行研究,选题具有很好的理论意义及实际价值。该论文提出了一种基于H型运动平台耦合动力学模型的鲁棒同步控制方法。混合误差,采用了考虑混合误差的新型性能指标,设计了LQ最优同步控制器。并针对采用LQ最优同步控制方法时系统在受到扰动后鲁棒性变差、控制精度降低的问题,分别设计了H无穷鲁棒同步控制器和L2增益鲁棒同步控制器。论文创新点明确,研究思路清晰,结果可信。论文结构合理,写作规范。,0,1,0,0,0,0,1,0,1,0,1,1,0,0 +1605,论文对永磁直线同步电机控制系统进行了研究,选题具有较好的理论研究意义和实际应用价值。 论文设计了永磁直线同步电机矢量控制系统,并对控制系统中存在的不确定扰动因素进行了分析研究。 论文设计了二阶滑模控制系统,提高了系统的控制性能。论文提出了基于饱和函数边界层控制和正弦饱和函数边界层的二阶滑模控制方法,并通过仿真验证了准滑动模态控制方法对于抑制抖振的有效性。 论文运用神经网络估计了系统中存在的不确定因素,设计出了基于径向基神经网络、递归径向基神经网络和动态递归径向基神经网络的智能二阶滑模控制器,通过仿真验证了所提出的智能二阶滑模控制器对于增强系统抗干扰能力和提高位置跟踪能力等方面的可行性。 论文结构合理,条理清晰,写作认真,文字图表规范,工作量较饱满,符合硕士学位论文要求。,0,1,0,1,0,0,1,0,1,0,0,0,0,0 +723,题为“纳米SiO2对铸态球铁微观组织及力学性能的影响”的学位论文,选题恰当,具有较重要的理论意义和实用价值。   作者综述了许多有关文献,掌握了该领域的国内外研究现状和发展方向。论文在不同纳米 SiO2 颗粒的加入量对铸态球铁的微观组织、室温拉伸性能及晶粒细化的机理和低温示波冲击试验,球铁韧性进一步提高的影响等方面开展了研究,具有较大的创新性,取得了如下主要研究成果: 1.添加不同含量的纳米 SiO2 后,铸态球铁的石墨组织得到明显改善:球化率提高,单位面积内石墨含量增多,石墨球平均尺寸减小,其中添加 0.50wt.%纳米 SiO2 的效果最为明显。 2.添加纳米 SiO2后铸态球铁的铁素体组织得到明显细化,随着纳米 SiO2含量的增加,铁素体晶粒度级别呈现出先增大后减小的趋势,添加 0.50wt.%纳米 SiO2 球铁的铁素体晶粒度级别最大。 3.添加不同含量纳米SiO2球铁的室温拉伸性能均得到了提高,随着纳米SiO2含量的增加,球铁的抗拉强度及伸长率均呈现出先增大后减小的趋势,其中添加 0.50wt.%纳米SiO2 球铁的抗拉强度最高,比未添加 SiO2 的试样提高了 34MPa;此时的伸长率也最大,比未添加 SiO2的试样提高了 8.29%。实现了抗拉强度与伸长率的同时提高。 4.添加 0.50wt.%纳米 SiO2 后,球铁在室温下的冲击韧性提高了 7.67%,使材料能够服役于更低的温度环境。   论文层次分明,图表规范,实验数据可信,公式推导合理,叙述清楚,分析和结论正确。论文体现了作者具有较扎实的理论基础和专门知识,具备了从事科研工作的能力。 论文达到硕士学位论文水平,建议组织答辩。,0,0,1,0,1,1,1,1,1,0,1,1,0,1 +1818,论文以锂离子电池为研究对象,选取金属配合物作为电极材料,选题具有较好的理论研究价值和应用前景。在对国内外研究进行一定的了解的基础上选择双甘膦作为配体合成铜钴镍配合物,使用多种表征手段对配合物组成、晶体结构等进行详细表征,并制备电极研究其充放电性能,取得了具有一定创新性的较好的结果。论文整体实验设计合理,表征手段得当,数据可靠。虽然在写作方面存在一定的不足,仍不失为一篇合格的硕士论文,建议修改后进行硕士学位论文答辩。,0,1,1,0,0,0,1,0,1,0,0,1,0,0 +1966,论文主要研究永磁直线电机的振动噪声问题,选题具有一定的实用意义。 论文首先根据搭建的永磁直线同步电机模型,分析了考虑磁致伸缩的电磁力的特性;然后采用电磁-结构-声场同步耦合的方式分析了电机的振动与噪声,得到了电磁力、磁致伸缩力对总应力的贡献,同时分析的初级结构声场特性。论文的思路较清晰,分析基本完整,体现作者具备一定的分析和解决问题的能力。论文撰写基本规范,符合硕士论文的要求。 同意提交论文答辩。,0,1,0,0,0,1,1,0,1,0,0,0,0,0 +827,资本市场是克服技术创新融资约束的重要场所,作者以人工智能板块上市公司的经验数据为样本,对资本市场对技术创新的影响进行了实证研究,选题具有现实意义。 通观全文可以看出,作者在写作中是努力的。从文章的写作来看,作者了解选题的国内外研究现状,了解选题所涉及的基本领域和主要内容,论文思路清晰,结构合理,方法得当,研究结论具有一定的参考价值,反映出作者具备了一定的专业基础和写作能力,达到硕士研究生应有的专业水平。,0,1,1,0,1,0,0,1,1,1,1,0,0,0 +2869,"论文以知识产权型轻资产企业为对象,探讨其价值评估方法,选题有一定的新意。论文在分析知识产权型轻资产企业特点的基础上,提出使用EVA方法评估该类企业的观点,并通过案例分析论证了其合理性。论文选题有一定的现实意义,逻辑较清晰,结构较合理,层次较分明,研究方法科学合理,研究资料详实,论证较充分,研究方法科学合理,研究成果有一定的应用价值,对于指导知识型企业的资产评估实践有一定的应用价值。综合论文写作情况,作者对本专业基础理论和课题方面的知识掌握比较深入、牢固,能利用所学知识解决课题中的实际问题,具有一定的科研工作能力。论文的不足之处:第一,建议作者对知识产权型轻资产企业的概念进行更清楚的界定,虽然论文在文献综述部分提到了其他学者对知识产权轻资产企业的看法,但全文并没有对其进行明确的概念界定;第二,第四章第二小节在总结EVA模型三个方面的适用性时,没有很好地结合知识产权型轻资产企业的特点进行分析;第三,论文P21总结出的知识产权轻资产企业价值评估的部分难点值得商榷,如评估技术的落后性、评估人才的短缺性,似乎不是针对知识产权轻资产企业的,论文应该在充分挖掘知识产权轻资产企业评估到底有哪些特点的基础上再提出难点;第四,EVA方法对知识产权轻资产企业的价值评估,主要采用传统的财务指标进行计算,那么知识产权和轻资产的特点如何体现出来?希望作者思考该问题。第五,P21页已经提出了知识产权轻资产企业价值评估存在传统方法局限的难点,P24页又在分析传统方法的对比,逻辑上颠倒,建议作者进行调整;第六,建议删掉P56“研究建议”,改为研究展望(将P6的“研究不足之处”部分调整至研究展望);第七,论文存在个别用词不严谨或凝练不够的地方,如“研究背景”部分提到许多创业者进入轻资产行业创业,轻资产并不是一个行业,而是一种经营模式;理论意义部分部分的阐述太啰嗦,不够精炼。",0,1,0,0,1,1,0,-1,1,1,0,1,0,0 +2700,论文选题“绞股蓝抗心力衰竭分子机制的生物信息学预测分析”具有很好得理论研究价值和实际应用价值,论文利用中药数据库与疾病数据库基础数据,通过药物-疾病交集靶点研究绞股蓝抗心衰的药效学物质基础和作用机制,据有一定创新性和很好的实践意义。论文从GEO数据库中获取心衰微阵列表达数据并且进行了特征选取,然后利用常用得多种及其学习方法,Logistic回归、支持向量机、K最近邻和AdaBoost对特征筛选后基因进行分类和预测。作者对四种模型进行了综合对比,得出了比较客观得结论。论文逻辑清晰,结构合理,层次分明,语言规范准确,符合专业学位论文的要求。论文英文摘要部分存在一些语法错误和语句使用不准确的地方,butitsmechanismofactionisnotyetclear.通常英语不这样表述,这是典型得中文直译,希望进一步修改。,0,0,-1,0,0,0,0,0,1,0,0,1,0,0 +1319,该论文通过自制双介质阻挡放电反应器协同TiO2/UV光解铝基网和TiO2/UV光解聚氨酯泡沫网二氧化钛光催化剂,研究应用低温等离子体技术降解恶臭气体硫化氢的技术参数和降解效率,并探讨其降解机理,选题有针对性,对于发挥等离子体技术的优势,减轻甚至去除恶臭气体的的危害,保护净化大气环境,具有一定的参考价值。 论文自制降解装备,模拟试验装备应用的具体参数,研究内容明确,技术路线可行,研究过程清晰,数据基本翔实,其结果对于进一步改造提升该项技术具有一定的参考,有一定的实用价值。 论文整体达到了硕士研究生学位论文的要求,同意修改后参加答辩。,0,1,0,1,0,0,0,0,1,1,1,0,0,0 +2711,论文选题符合专业培养目标,作者阅读相关文献比较充分,有一定的写作能力;论文总体上语言比较通顺,条理比较清楚,体例比较规范,数据比较可靠,论证比较充分,工作量饱满,基本上达到了学术型硕士论文水平。但实证研究的过程不够严谨规范,并导致论文的结构安排不尽合理,部分概念阐述不清楚,导致难以评价研究的规范性和实际价值,存在从文献到文献、实践价值不强的缺陷。建议修改后再参加答辩。存在的问题和建议如下:1.语言和标点符号还需推敲,格式需进一步规范。如摘要第一段“新形势”三个字没必要加引号;第二段“且受何种会计信息质量的影响”表达不准确,“交叉项”应为“交乘项”。目录前两行应删除。2.到底什么是条件稳健性和非条件稳健性?二者有何区别?理论阐述不清楚,文字表达不明确。3.会计信息质量有8个信息质量特征,而本文只研究了稳健性,盈余管理不属于会计信息质量特征,那么,为什么从这两个角度研究?理论依据何在?合理性何在?作者并未阐述,使得“会计信息质量”这一变量的选取缺乏依据。4.实证部分的逻辑、结构值得商榷。建议先检验基本假设,再按照产权性质等分组进行进一步研究。5.学术研究既要和文献(理论)对话,又要和现实(实践)对话。将会计信息质量放到供应链金融和融资约束二者关系中去,研究的现实价值何在?,0,0,1,1,0,0,0,1,1,0,0,-1,0,0 +2709,"论文选题符合专业培养目标,有一定的理论价值。论文总体上结构比较合理,条理比较清楚,研究方法比较得当,论证比较深入、充分,工作量比较饱满,语言通顺,体例比较规范。作者掌握了博弈论相关的专业知识,基本上具备了综合运用所学理论分析和解决现实问题的能力,具有了一定的科研能力。总体上来看,论文符合硕士学位论文写作要求,达到了硕士论文水平。同意参加答辩。主要不足和修改建议如下:1.创新点第一点不成立。选取对象或行业与以往不同不能构成创新。2.目录中前两行应当删除。3.建议增加对我国汽车行业发展背景和并购现状的描述,因为这是博弈分析的重要外部环境因素。",0,1,-1,1,1,1,1,1,1,1,0,-1,0,0 +2460,该论文选题合理,制备并采用SnO2-Al2O3-NiO/SO4作为催化剂,并利用水力空化技术催化大豆油环氧化反应,并对相应的反应参数进行了优化。该论文引用文献具有代表性和科学性,对有关的中外文献相关领域进展进行综合分析和归纳整理,文献综述丰富而规范。催化剂制备和表征比较全面,催化反应数据详实,内容丰富、条理清晰、结构完整。论文格式正确,结构严谨,层次分明,书写规范,逻辑严密,语言流畅,重点突出,反映了作者具有较好的理论基础和科研能力。不足之处在于作者未能把SnO2负载的Al2O3-NiO/SO4催化剂与其他金属氧化物负载的Al2O3-NiO/SO4催化剂进行比较,仅与甲酸自催化进行比较,在体现SnO2-Al2O3-NiO/SO4催化性能优越性方面略有不足。论文总体良好,同意提交答辩。,0,1,1,1,1,1,1,0,1,0,0,0,0,0 +2082,学位论文《CFRP微磨削机理与工艺研究》: 论文主要对碳纤维树脂基复合材料进行超高速精密微磨削的加工机理与部分工艺进行研究,利用有限元软件的二次开发技术建立微观层次下碳纤维复合材料微磨削的有限元模型,进行不同加工参数的模拟,研究不同加工参数在微观层次下对材料破坏过程的影响,揭示了磨削机理,具有一定工程应用价值。论文数据基本准确,图表规范,工作量饱满,具备一定从事科研工作和解决实际工程问题的能力。论文达到了工程硕士学位水平,建议修改后答辩。,0,1,0,1,1,1,1,0,0,0,0,0,0,0 +1528,课题具有较好的理论意义,对行业技术进步和发展具有一定现实意义。 作者在对国内外研究现状分析的基础上,进行了基于示功图的油井产液量软测量混合模型、基于SMOTE-DA-RF算法的井下工况识别、基于示功图油井产液量软测量模型动态更新的研究,并进行了仿真验证。反映了作者掌握了本专业的基本理论和知识,基本具备独立从事科研工作的能力。 论文工作量饱满,难易程度适中,条理性基本清楚,规范性较好。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +2609,论文采用ESG指数和EVA定价模型作为企业价值评估的基本方法,以万华中化工为实例,对其价值进行了评估,并与传统方法价值评估的结果进行了比较,得出了相关结论与政策建议。文章结构安排基本合理,逻辑基本清晰、文字通顺,观点基本正确,已基本达到了硕士生论文学术规范和学术水平的要求。一些建议:1.绪论部分的逻辑不通畅,应是先有研究内容,再是研究方法,接着再谈研究的技术路线图和研究的创新点,逻辑才说得通。且在研究思路中有夹杂研究的技术路线图内容,研究创新点又没有谈及本文的不足之处。应予以厘清思路。2.文献综述和理论基础部分,这部分内容又混杂有企业价值评估方法的概述,这明显是文不对题,建议将企业价值评估方法概述这部分内容纳入精细化工企业价值评估方法的选择这部分内容中。理论基础部分应重点分析该理论的内容,以及文中运用该理论的部分。3.文献综述部分内容不是很多,建议纳入绪论部分来谈,没必要单独拿出一章专章进行谈及,且要将小结改为文献述评。4.将四章精细化工企业价值评估方法的使用性改为精细化工企业机制评估方法的选择更为对题。,0,0,-1,0,0,0,0,0,-1,0,0,0,0,0 +2080,选题以车用内置式永磁同步电机为研究对象,重点采用田口法与多级 Kriging 模型结合的多目标优化方法,围绕着降低转矩脉动为核心内容展开了理论性研究和实验仿真结果的验证工作,其选题符合电气工程技术领域,并具有较好的研究意义和应用背景。文中针对转矩脉动的产生机理、电机本体设计与电流谐波抑制方法、多目标优化等研究内容,查阅了相关的技术文献,并对有关的研究现状进行了评述,从而明晰了题目的研究内容和方法。基于电机理论,推导了转矩脉动的解析表达式,采用等效磁路法分析了磁饱和程度对转矩脉动的影响情况;采用比例积分谐振控制,对校正电流波形的正弦性进行了分析;最后应用田口法与多级 Kriging 模型结合的多目标优化方法,对进一步减小转矩的脉动性能等进行了综合的理论研究和仿真实验,反映出该生掌握了一定的专业基础理论知识,并具有独立从事科学研究的能力。构文层次比较清晰,写作比较规范,内容表述清楚,有很好的逻辑性,具有一定的工作量和仿真实验,得出结论合理,具有较好的专业论文写作能力,达到了硕士研究生培养的要求。,0,1,0,1,1,1,1,1,1,0,1,0,0,0 +1447,该文以 126kV 无氟环保型气体绝缘 金属封闭开关设备中的快速接地开关作为样机,开展不同结构下的 CO2环保型 GIS 快速 接地开关分闸过程电弧动态特性以及弧后介质恢复特性研究。建立电弧数学仿真模型,比较了吹气装置对快速接地开关压气特性和气流特性的影响。针对压气式接地开关进行不同速度、不同压强电弧仿真计算,分析不同因素对快速接地开关气 室压强、密度和温度的影响。最后通过建立介质恢复数学模型,开展不同因素对开关开断后的弧后介质恢复影响的研究。 文条理清晰,重点突出,是一篇合格的硕士论文,同意进行答辩。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +2992,学术硕士学位论文“不同工艺制备的豆腐皮品质比较研究”针对豆腐皮工业化生产中存在的揭膜难、品质不一等卡脖子问题,研究了涡流空化和微射流2种豆浆前处理方法来改善揭膜豆腐皮品质和非揭膜压制豆腐皮的工艺制备方法。学位论文选题符合专业培养要求,研究结论对实际生产有一定的指导意义。从论文中也反应出作者具备了本学科领域分析问题、解决问题的能力。论文工作量饱和,撰写规范,逻辑性较强,达到硕士学位论文水平。论文存在的问题及不足之处:一是论文自选大豆,制备豆浆。试验材料大豆的质量会对豆浆乃至所制备的豆腐皮品质产生重要影响,论文应对的所用大豆的产地及品质进行必要的鉴定。二是结果与分析部分,在数据图或表出现之前,应简要介绍下依据,如“按2.*.*的试验方法,对***进行考查,结果如图或表***所示。分析图或表***,可知***”。三是在论文中注意“实验”与“试验”、“小时”与“h”、“观察”与“观测”等词的区分与应用。四是引用学位论文时,注意在参考文献标注时,需要有机构所在地,如***[D],武汉,华中农业大学,2021。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +839,作者依托现有实验平台设计了一个轮毂铸造面缺陷检测系统,实现摩托车轮毂铸造表面凹坑类,线条类和偏差类缺陷的检测,包括成像方案设计、三种缺陷的检测算法设计,较好地解决了轮毂铸造面缺陷检测问题,且检测正确率可达90%以上,研究具有一定的理论意义和较高的实际应用价值。 论文结构比较合理、写作比较规范、内容充实,反映出作者较好的掌握了本学科领域的专业知识,且具备较好地分析问题、解决问题能力。,0,1,0,1,1,1,1,1,0,0,0,0,0,0 +83,本论文在概述相关学术文献与动态的基础上,对传统 APA 算法抗非高斯噪声干扰性能差的问题提出了改进。首先推导出了基于 Wilcoxon 范数的仿射投影算法的更新方程,以有效抑制非高斯噪声;其次,形成了基于 Wilcoxon 范数的变步长双符号仿射投影算法。最后以仿真实验验证所提出的算法在收敛速度、 稳态失调、以及环境适应性方面都有显著的优势。选题具有一定的理论价值和现实意义。论文结构严谨,层次分明,逻辑性强,文笔流畅,表达清晰,重点突出。文章格式符合学术规范。反映作者具有一定的独立科研能力。论文表明作者掌握了本专业的基本理论和分析方法。,0,1,1,0,1,1,1,1,1,0,0,0,0,0 +2392,本文旨在改进超额收益法对商誉价值进行评估,选题较为新颖,基本符合硕士论文的水平,但还存在一些问题,本文修改后经导师同意后答辩。本文主要存在以下问题1、关键词的选取不合理,建议重新总结全文后选取。研究背景部分将重点放在了企业并购上,缺乏对商誉发展的背景概述。研究意义部分篇幅过长且表述不清,建议重新进行总结。创新点还需凝练。2、文献综述应当将国内国外文献按照一定的逻辑结合起来写。文献综述部分内容太多,文献评述部分内容太少。参考文献质量较差,且外文文献陈旧。对商誉的概念界定写的像是三大传统方法的适用性分析或者是局限性,并未给出商誉的具体概念。3、差额收益法的不足介绍的太模糊而且过于简单。4、案例分析部分介绍了美的电器的竞争优势和社会形象,介绍这部分的目的是什么,建议作者给出说明。此外,对收益期限的确定未给出充分的理由说明,具有很大的主观性。5、本文在研究背景中大量提到因为并购活动所以需要对商誉价值进行评估,但后文并未给出评估商誉价值的具体情境,全文商誉价值评估中更未体现出白电行业特点。6、作者并未给出改进后的模型的适用条件,这使得模型的应用性较弱,准确性不高。7、存在错别字和语病问题,如“割差法就是应用收益法的思路应用得到的一种方法”,建议作者通读全文进行改正。论文每一章均缺少小结部分。,0,1,-1,0,0,0,-1,0,0,0,0,0,0,0 +2161,中国作为最大的食糖进口国,深受白糖价格波动的影响。白糖企业为了维持经营、提高企业利润应需要充分利用好期货与期权工具,规避白糖现货价格的波动风险,所以论文选题具有重要的现实指导意义。 本文在综述了相关文献基础上,借助OLS模型、VAR模型、ECM模型与GARCH模型进行疫情前与疫情后的最优套保比率的计算,发现疫情后的最优套保比率数值明显大于疫情前的最优套保比率数值;其次,基于近期疫情后的数据进行期货与期权两种策略的应用,提出了白糖多头企业的套保策略。最后,针对广西南宁的白糖企业,论文提出了具体的套保方案。 该论文研究有特色、有深度,工作量饱满。论文文献综述丰富并且较为规范,逻辑结构合理,论证过程较为严谨,论证方法科学,论文写作符合学术规范。 论文表明作者已经掌握了本专业的基本理论知识与科学研究方法,并具备了一定的科学研究能力,达到了硕士学位论文水平,同意进入答辩程序并建议授予硕士学位。,0,1,1,1,0,0,0,0,1,1,1,0,0,0 +2624,论文对比了多种鲤鱼精子DNA制备方法并对提取工艺条件进行了优化,在此基础上将其用于废水中溴化乙锭的消除研究,课题符合本专业研究方向,选题对经济社会发展具有促进作用。论文综述了本课题相关国内外研究进展,实验方法合理,数据分析较充分,表征手段可行,撰写较规范,达到了硕士学位论文水平,同意修改后答辩。由于研究内容较宽,作者在撰写时尚需加以思考以突出主题。部分修改建议和意见列于后:(1)1.5研究意义应调整到1.4研究内容前;(2)2.3基本溶液配制应为2.4实验方法的一部分(3.3、4.3等类同);(3)2.4.1中“超低温”冰箱疑用词不当,可能为“低温冷冻”;(4)早春鲤鱼鱼白中csDNA的产率11.7%,是否与目前商业化类似的DNA产品相比具有技术优势(研究意义)?2.5.1.3处对于紫外吸收光谱相似判定产品性质的指标不明,如可通过特定峰谷差、峰面积等定量比较说明,结论也应有所拓展;(5)2.5.2中采用单因素实验中,多为定性或数据趋势分析,对数据缺少方差分析以界定因素和误差的影响程度;类似的还有3.5.2、4.5.2等;(6)受水域、水质、水温等不可控外部因素影响,不建议将“捕捞期”作为影响因素进行分析;(7)图2-8、图2-11、图3-2等缺少图例;图2-10相邻数据点直线相连的意义不明,应对其数据拟合或使用平滑曲线反映趋势;(8)3.1中“很多实验室对EtBr废水不经任何处理直接排入下水道”缺少论据,且相关法令明令禁止实验室废水排入市政排水系统行为,应更换表达方式,突出研究意义;(9)3.2.1中与第2章重复内容应简化;“国画电器有限公司”的HH-4水浴锅疑为“常州国华电器有限公司”;(10)缺少标准曲线图或方程;(11)部分图y坐标范围有误,如图3-14,应为100~130;图3-25,应为90~100;图4-12等等;(12)式3-5和图3-23(a)纵横坐标不能很好的线性对应;中文图名引用应以“图”x-xx开头;(13)图3-24、图4-11缺少拟合方程和回归系数;(14)表3-6及讨论应在3.5节适宜位置,结论不宜出现表格;(15)4.4.2.2中记录范围为1800-800波数红外吸收光谱,但图4-2x轴坐标为3000-500波数;(16)图4-3题名不明,且应按序号备注;(17)图4-4不宜相邻点直线相连;(18)4.5.2.3对单因素的考察,为何将相关因素合并,在图4-6中做成双因素影响图?类似还有4.5.2.5;(19)表4-3如何得出准二级动力学模型(R^2≤0.991)或准一级动力学模型(R^2≥0.999)的?(20)每章“结论”应为“本章小结”;(21)部分参考文献可能引用方式存疑:[38][42][44][89][95][96][103][104][115]等,应逐条检查。,0,0,0,0,0,0,1,-1,1,0,-1,0,0,0 +1784,论文以1.5MW双馈式风力发电机组的行星齿轮箱为研究对象,开展太阳轮和高速端滚动轴承的故障诊断与识别分类研究,具有较强的实际应用价值,指导工程实际的意义较大。论文通过提取实际工况下结构非线性振动信号的故障特征,引入麻雀搜索算法优化,实现振动信号的自适应分解;将混沌麻雀搜索算法与支持向量结合,对结构进行自适应故障分类;借助混沌扰动与高斯变异提高程序整体搜索精度。通过对比验证了论文所用故障分类效果较好,识别率较高。项目的研究选题符合专业培养目标,能够达到综合训练目标,题目难度一般,研究创新性和论文工作一般。论文检索了一些最新研究成果,但作者自身算法的创造性并不突出。,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +2961,为研究影响大学生双创的影响因素,论文使用文本挖掘、问卷调查、有序logistic模型等多种统计分析手段进行研究,最后得到三个正向促进因素,即学校支持力度、专业知识能力和双创氛围。论文分析方法正确,数据来源可靠,结构合理,逻辑清晰,工作量较为饱满,排版较为合理,总体上达到硕士学位论文水平。论文存在以下问题:1.目录2.3.3中logistics应该为logistic;2.第11页中关于有序logistic模型的介绍不够完整,没有给出其中涉及到门限值,也就是下文表5-10中出现的两个阈值参数-4.537和-2.056,鉴于该模型的重要性,建议补充带有阈值的模型。3.第35页中图4-6改为表4-6;4.表5-5格式不规范,两端封闭;5.表5-6中三个解释变量,在赋值时,都是二分变量,从程度上说不是低就是高,缺乏中间状态,这点与被解释变量y不同,实际上实践中确实存在中间状态,例如双创氛围,可以是差,可以是好,也可以是一般,其它两个变量也是如此,建议读者再细化一下。6.第49页论文关于表5-10的三个系数解释出现错误,按照论文的解释,学校支持力度导致大学生参与意愿高的可能性是支持力度第的0.393倍,即学校支持力度大导致参与意愿低,类似后面的专业知识能力和双创氛围良好也是存在类似问题,从实际结果来看,这三个因素对提升学生意愿起促进作用,请作者好好理解该模型参数估计的含义。,0,0,0,1,0,0,1,0,1,1,0,0,0,0 +2297,本文对工程钢圈进行了静力学和疲劳裂纹分析,并用弯曲台架试验机和声发射仪器进行试验,基本达到了硕士学位论文水平。建议:论文的创新需要进一步凝练和突出,请修改;英文简写,首次出现要写全名,请修改;第二章中那些是自己的成果,那些是别人的理论(要参考),要分清楚,第二章的内容可以合并在第一章中;图2-3-图2-8横坐标和纵坐标代表物理变量和单位是什么:请标注;在许多公式中,没有物理变量和单位(几乎所有物理变量没有单位),例如式(2-1)-式(2-3),在式(2-4)-式(2-3)中,U(t)、U0、u物理变量和单位分别是什么?请标注;式(2-7)是如何推导的,请补充;工程钢圈是薄壁件,采用图3-1定位夹紧,如何实现定位夹紧的,夹紧后工件又不变形或损坏的(变形或损坏都会影响后面的测试结果的)?请详细说明;工程钢圈有限元模型中,整体的单元尺寸设定为0.005m,设定螺栓和螺母的单元尺寸为0.0025m,网格划分比较粗,如果初始疲劳裂纹达到毫米级别的话,载荷循环次数如何计算?第三章的静态分析结果,应该增加实验来验证;第三章和第四章中,模拟的边界条件、约束条件、和载荷是如何施加的?请详细说明;“最大疲劳损伤为8.61×10-7,最小疲劳寿命为1.16×106次”和“最后算得工程钢圈的裂纹萌生寿命为1.16×106次”;对吗?请修改;部分参考文献格式不正确,例如[52],具体是书籍还是期刊文章,请修改。,0,0,-1,0,0,0,-1,0,0,-1,0,-1,0,0 +1477,该学位论文针对多能源微网之间存在的多能互补、互为备用的横向运行特征与网群共享、整体协调的纵向协调特征,开展了基于能量交互协同的微电网集群优化运行策略研究。首先建立了多能源微网组成模块输入-输出模型,并提出微网转换行为的0-1决策问题模型;其次,提出多能源微网集群系统能量交互协同策略,建立演化合作博弈下的多能源微网集群能量交互协同模型,以整体能量平衡性和运行经济性为目标对多能源微网集群系统的能量交互过程进行优化;最后,结合能量交互策略依次给出4种典型运行场景,建立可满足主干能源网不同运行方式下调节需求的多能源微网集群系统优化模型,并应用计算量小且具有较好求解收敛性和求解速度的NSGA-Ⅱ-RLS算法实现求解。 该学位论文的研究主题是当前能源领域的研究热点,其选题具有现实的学术研究价值和潜在的技术应用价值。整体而言,论文架构合理,内容充分,格式规范,其获得的研究成果通过仿真算例得到了较合理的验证,满足工学硕士学位论文的要求。故同意其在对论文进行部分修订和补充后进行毕业答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +736,文化是一个国家、一个民族的灵魂。只有充满坚定的文化自信,人民才有信仰,民族才有希望,国家才有力量。中华优秀传统文化作为中华民族的精神命脉,是涵养社会主义核心价值观的重要源泉,也是我们在世界文化激荡中站稳脚跟的坚实根基。新时代如何继承创新中华民族优秀传统文化,既是理论研究中的重大课题,也是实践中的重大课题。《新时代继承创新中华优秀传统文化研究》具有较好的理论及现实意义。,0,1,0,0,0,0,0,0,0,0,0,1,0,1 +1097,本论文以优化配送成本为目标,分析了成本函数,进而建立利润函数。采用遗传算法规划出最优路线图,并求出利润。论文通过新技术的研究、冷链物流系统的整合以及车辆运输路径的优化等,得出改变配送路线及采用新技术可以降低成本。 论文还存在以下问题: 1 论文缺乏创新性,路径优化问题已经有大量研究,本文的重点在农超对接模式下的配送优化,因此论文应该紧密结合农超对接进行分析! 2 关键词过于简单,未能体现本文的核心研究内容。 3 农超对接模式下,是不是所有的农产品都需要冷链运输?如果全部采用冷链运输,势必增加物流成本,对消费者、农民都是伤害!建议论文进行分析论证哪些类型的农产品需要用冷链,哪些不用! 4 农超对接不是理论,请认真分析理论的定义。 5 农超对接现状分析部分不能用个案来代替全部。 6 论文采用30吨的汽车进行冷链运输是否合理?市面上有哪些车型是这种? 7 论文研究中宜采用实际地图路径,多数城市对货运车辆是要限制的,本文是否考虑了实际的情况。 8 论文的配送中心向超市配送的模式,如何体现了农超对接?,0,-1,0,0,0,0,0,0,0,-1,-1,-1,-1,0 +2541,该文设计下肢康复外骨骼机器人;利用ADAMS进行动力学仿真;通过MATLAB与MSC.ADAMS联合仿真验证外骨骼轨迹跟踪控制算法的准确性;最后实验结果与理论分析以及仿真结果进行对比验证。1、在第二章2.1中建议增加描述以说明:在前面基础研制上,明确该文增加了以及完善了。。。。内容。2、在第三和第四章中都有仿真分析,其仿真结果的正确性有待后面实验环节的验证对比。3、最后一章实验部分,对于不同的康复对象运动和力应该有不同,如何体现?系统的输入轨迹,应该以不同的对象而不同,实验环节建议增加样本量。,0,0,0,0,0,0,0,0,-1,0,-1,0,0,0 +2353,本文以北京首创环保公司作为案例研究对象,选题来源于经济社会的资产评估实践,符合专业性要求;论文通过案例研究,利用EVA评估模型对北京首创环保公司进行了评估,并就研究对象给出了相应的研究结论和建议。论文体现了研究的应用性和专业性,研究结论有一定的参考价值和现实意义。论文文献综述的整理详备,能够综合运用相关的资产评估理论知识,选择了合适的案例研究方法。研究资料翔实,资料运用合理、得当,论证充分,符合专业特点,研究工作深入,工作量饱满。论文的观点明确,逻辑清晰,结构合理,层次分明,文笔流畅,形式规范。论文不足之处是:对案例企业的评估价值的分析也是重要的内容,不能仅仅局限于评估过程。建议对第五部分进行如下修改:前3个内容放入第4部分,后面的内容单独成章,“基于评估结果分析的北京首创环保企业价值提升建议”。建议妥当与否,请于导师沟通。,0,1,1,1,0,0,1,1,1,0,1,0,0,0 +2093,医疗X光片、CT扫描、镜像等图像的自动识别,近年来一直是图像识别的研究和应用热点,论文针对皮肤镜病变图像,研究多种不同皮肤病的自动判别模型,具有一定的应用借鉴价值。 论文针对公开皮肤镜病变数据集存在的环境光噪声采用灰度阴影方法消除;针对数据集的类别数据不平衡和数据量过小的问题,采用GAN对抗网络生成样本,加权交叉熵以及分层卷积网络进行处理;论文在ResNet50和VggNet网络的基础,添加了GAP、BN、正则化以及Dropout等深度学习网络优化技术,在皮肤镜病变图像集上进行迁移学习,提高了模型的分类准确性。 论文研究内容明确,提出的研究方法具有合理性,但未讨论较新的图像识别,以及在该公开数据集上的其他相关工作,存在不足。论文反映了作者在研究生学习中具备了分析问题和解决问题的能力,培养了一定的科研素养,掌握了该方向的研究方法和技术。 论文逻辑结构较合理,论述不够流畅,图表规范,达到硕士论文要求。,0,0,0,0,1,1,0,-1,1,1,0,1,0,0 +244,该论文提出了两种“生成式”文本无载体信息隐藏算法,其提出角度均不同于之前的相关算法,可以良好的完成信息隐藏工作。实验结果表明:两种算法在安全性及鲁棒性上均表现良好,不容易被检测攻击造成信息泄露,同时,算法嵌入率相对于之前的其他算法均有大幅进步,可以有效提高信息传输效率。 论文层次分明,结构完整,表明作者已掌握了本门学科的基础知识,并具有较好的分析问题和解决问题的能力,达到了硕士学位论文水平,同意进行硕士论文答辩,并建议授予硕士学位。,0,0,0,0,1,1,1,1,0,0,1,0,0,0 +455,论文设计了一种新型预制后注浆异型树根桩,并在实验室进行了预制桩的制备。通过桩身材料和桩体系统的力学性能试验,研究该预制桩的力学性能,优化设计参数,总结制备过程,优化制备步骤及配套模具。参考现有预制桩施工机具,研发制作预制后注浆异型树根桩成套施工设备,选取典型既有建筑加固工程,检验成套施工设备的可靠性,并形成新的施工工法。通过现场静载试验,分析研究预制后注浆异型树根桩的承载特性及沉降特性和桩与桩周土体的相互作用。 论文选题和研究成果具有一定的理论指导和实际应用价值,试验数据基本可靠,分析计算基本正确。论文研究内容较明确,层次较清楚,条理较分明,写作较规范;工作量达到了硕士研究生要求,基本掌握了所需学科的基础理论和专门知识,基本具有独立从事科学研究工作的能力和学术水平,基本达到了硕士论文要求。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +2650,"论文基于油液监测技术,开展齿轮箱运行状态评估与预测研究工作。设计了齿轮箱运行状态评估与健康预测的总体方案,建立了齿轮箱运行状态综合评价指标体系。建立了齿轮箱运行状态综合评价指标体系;设计了PSO-GM模型用于齿轮箱的健康预测;最后,开发了齿轮箱运行状态评估与健康预测仿真平台。论文选题以解决实际问题为出发点,具有明确的应用背景和应用价值,对与本研究相关的现状分析较为全面,体现出较好的分析能力。论文所做工作全面而深入,反映了作者扎实的专业理论基础和具备了应用专业知识独立从事与本专业相关的研究的能力。论文撰写规范,条理清晰。论文表明,作者有一定的硬件设计与软件编程能力;文中设计了相关实验方案并进行了相关实验验证,方法和数据较准确可靠,反映出作者较好的专业知识运用能力;论文观点正确、结构完整、层次清晰、主要工作基本阐述清楚。论文达到了硕士论文的基本要求,建议修改后按期进行论文答辩。就论文中的几处修改意见列写如下,与作者共同交流::第四章中的创新性和算法优越性体现不明确,比如pso是首次用于gm优化?还是pso-gm首次用于你的研究对象?为什么选择pso,而不选择文中提及的狼群、蚁群,或者蜂群算法,并没有明确描述。对比算法性能时,仅对比gm与pso-gm并不能说明问题,或者说优化后的gm还没有gm好,那优化也就没有意义了,所以你不应该仅比较这两个,而是要有更多的纵、横向比较实验来说明算法优越性。第五章图5.3中,实时状态监测是可以写入数据库的么?英文摘要中thispaper应改为thisthesis。绪论1.1中第三段第一句的逗号改为中文逗号。正文中参考文献“[28]”“[30]”“[41]”应改为新罗马字体,和其它保持一致。修改18页倒数第四行标点“,;”。3.2.3节中第二段中“(0,1,2)”括号不一致,左括号为英文括号,右括号为中文括号。23页第一行“方法”二字后面多了数字0。23页矩阵X、非负矩阵Z后面应该加标号,其中的数字改为新罗马字体。表4-4不规范,重新修改。图4-5、图4-6图例不规范。公式4-9下面种群数、加速度常数以及关心权重的数值应为新罗马字体。",0,1,0,0,1,1,1,0,0,0,0,-1,0,0 +1185,本文以补偿算法减小不平衡振动对主动磁悬浮系统的影响为研究对象,选题契合旋转机械稳定运行和减少疲劳影响的热点问题,其研究结果具有重要的科学意义和显著的应用价值。 作者查阅了较多相关文献,对主动磁悬浮轴承和自动平衡控制技术发展做了较详尽的综合评价。研究搭建了一套五自由度磁悬浮轴承实验系统,并通过该系统验证了自适应陷波滤波器对转子轴心轨迹中的转速同频分量的影响与仿真结果符合较好,说明仿真建模的模型适合表征磁悬浮轴承及转子的动力学要求。研究取得了有价值的成果,如:开启自适应陷波滤波算法后,转子轴心轨迹直径由 0.1mm下降至0.06mm;转速同频分量降至 0.0097g,下降至开启前的 51%,显著降低了了不平衡振动对磁浮转子系统的影响。 论文结构合理、图表规范、论述逻辑性强、五轴磁浮系统搭建可靠、实验验证结果可信。表明作者具有较扎实的专业理论知识,并具有一定的独立从事科研工作的能力。论文达到硕士学位水平要求,建议为该论文组织答辩。,0,1,1,0,1,1,1,0,1,0,0,1,0,0 +2381,本文针对2004年1月至2019年10月的广西地区乙型肝炎月发病人数分别进行机器学习和动力学模型预测分析,比较了两者在传染病预测方面的优势与不足。该文研究表明:在传染病预测领域,ARIMA模型的应用较为广泛并且预测精度较高,能够较好的拟合时间序列数据的线性趋势。同时,LSTM模型能够很好的拟合时间序列数据的非线性趋势。因此,为了提高对乙肝感染人数的预测精度,并利用精度较好的机器学习模型与动力学模型进行对比,考虑将两者结合,建立ARIMA—LSTM并联组合预测模型和ARIMA—LSTM串联组合预测模型。利用这四个模型分别对2018年1月至2019年10月的广西乙肝月感染人数进行预测,挑选出预测精度较高的模型。试验结果显示四个模型中ARIMA—LSTM并联组合预测模型的精度最高,并且拟合效果最理想。从选题、写作及结论看达到硕士学位论文水平,同意修改后直接答辩。该文主要存在以下不足:(1)只是简单地用ARIMA模型和LSTM模型进行组合,没有针对问题进行适当改进。(2)存在一些错别字或表达错误,如摘要第三段中的偏执相关函数(应为偏自相关函数),请仔细检查。(3)建议部分较弱。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +2017,数字音乐独家授权模式的广泛应用有效维护了权利人的版权利益,对我国数字音乐版权的正版化发挥了重要作用。但这一模式在带来积极效应的同时,也极易诱发破坏市场竞争秩序的竞争风险,相关主体可能实施排除或限制竞争行为,进而损害其他在线音乐平台经营者和消费者的合法权益。因此,如何正确看待数字音乐版权独家授权的正负效应,积极运用法律手段化解其可能带来的竞争风险,越来越成为学界和实务部门关注的问题。在这一背景下,作者从反垄断法规制的角度对数字音乐独家版权滥用问题进行研究,具有较强的理论意义和实践价值。综观全文,从我国数字音乐独家版权滥用的基本理论入手,运用知识产权和反垄断的相关理论,总结了目前我国反垄断法规制数字音乐独家版权滥用面临的主要问题,并提出了相关的完善建议。在此基础上,论文取得了一些有价值的研究成果,如通过分析数字音乐市场不同主体之间的利益冲突,提出应平衡版权保护和竞争秩序维护之间的关系;在数字音乐平台市场支配地位认定方面,论文提出了采用盈利模式测试法界定数字音乐相关市场、借助用户使用量因素判断数字音乐平台市场份额等建议。以上研究成果的取得体现出作者已掌握了本研究领域内的专业知识,具备了一定的科研工作能力。全文结构合理,格式规范,相关研究成果具有一定的理论意义和实用价值。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1866,论文针对SiAlCN陶瓷制备方法中存在的一些不足,采用高温高压法制备液态聚铝碳硅烷(LPACS),将其和乙烯基硅氮烷(VSN)交联固化制备了富碳型SiAlCN陶瓷,系统研究了前驱体制备与交联固化过程的影响因素,探索分析了陶瓷化过程的结构转变以及各个元素的结构存在形式变化,论文研究结果对SiAlCN陶瓷制备及其热、电功能调控提供了一定的基础。 论文文献调研较为充分,选题针对性强,实验设计较为合理,方法和数据较为正确可靠,全文写作条理性好,层次清楚,逻辑性强。,0,1,1,0,0,0,0,0,1,1,0,0,0,0 +989,早在《普通高中语文课程标准(2017 年版)》中“语文学科核心素养”就被明确指出并作为我国语文教学的目标指引。其中“学科大概念”也被提出,即“重视以学科大概念为核心,使课程内容结构化”。《普通高中语文课程标准(2017年版2020 年修订)》延续了对这两方面的强调。与此同时,基于新课标编写的统编版高中语文教材投入使用,新教材采取“人文主题”和“学习任务群”双线组元,凸显了单元的整体性。作者以此为选题在理论意义和实践意义上都具有良好价值。这是作者的修改稿,对于原稿来说,已有较大提升,内容已比较完整,逻辑也比较通顺,已达到毕业要求,可以参加毕业答辩。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +1213,本文针对离心泵与变频调速永磁电机效率区间匹配以及多目标优化问题进行研究,提出了一种基于使用数据的离心泵用永磁电机效率区间分析方法,开展了离心泵调速永磁直驱电机设计与分析,利用田口法对永磁电机进行优化设计,并制作了实验样机进行验证。 论文工作理论联系实际,所做的研究及其获得的研究成果具有较强的实用价值。论文结构基本合理,层次较为分明,撰写基本规范,图形较为清晰。 综上所述,表明了该论文作者在其所从事的研究领域内具有较扎实的专业基础理论和一定的专业技术知识,该论文已基本达到硕士学位论文水平,同意略做修改后参加本次硕士学位论文答辩。,0,0,0,0,1,1,1,0,1,0,1,0,0,0 +2463,该论文选题具有较好的现实针对性和价值性,问题意识突出,能坚持运用马克思主义理论与方法展开研究;该文遵循“提出问题——分析问题——解决问题”的研究思路,在实证调查的基础上,结合现有的恋爱观教育研究,分析高中生恋爱观存在的问题,揭示了高中生恋爱观教育的不足,探索社会教育、学校教育、家庭教育和自我教育的有效途径。其逻辑结构较为合理,所采用的文献法、问卷法、访谈法等研究方法较为得当,论证分析较为充分,对策具有一定的启发性;该文行文流畅,达到了硕士学位论文水平。修改建议有:1.第1页:重点高中也是普通高中,不是特殊一类。2.第2页:理论意义和现实意义的撰写既不规范,又没有条理性和概括性。3.第7页:其中“选题新”“研究内容新”这些提法和表述不规范,建议修改“研究方法新”“研究视角新”等。4.第33-34页:“激发学生个体能动作用”这部分内容建议置于学校教育、家庭教育、社会教育之后,凸显思想政治教育“教育与自我教育”这一基本原则和理念。5.最突出的问题是:该文仅以广西三所高中为例,这种研究所得出的数据是否具有普遍意义?请作者斟酌。,0,1,0,0,0,0,0,1,1,1,0,0,0,0 +272,该论文针对永磁风力发电机组动态无功补偿方法、电网电压骤降或骤升情况下网侧变流器的功率控制方法进行了研究,主要工作如下: (1)对风电机组网侧变流器在不同工况下多象限运行方法进行研究,得到风电机组网侧变流器在一、四象限内的无功补偿区间,通过对负载无功电流的直接控制实现在输出有功功率的同时对负载进行动态无功补偿,降低了建模及计算的复杂程度。 (2)在电网电压跌落时,通过基于卸荷电路的风电机组最大功率输出的联合控制方法保证永磁风力发电机组实现安全稳定运行,轻载状态下增发无功有对并网点电压有提升作用。 (3)在电压骤升故障情况时,无功侧利用剩余容量吸收无功功率,可部分降低直流电压幅值的需求。有功侧主动提升直流母线电压给定值,避免直流电压被迫抬升造成幅值波动,可提高输出有功功率的稳定性,改善永磁风力发电机组网侧变流器输出电流畸变。 论文写作较规范,逻辑性较强,达到硕士论文要求,同意答辩。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +2884,论文针对北部湾海砂,采用GDS动三轴,对其进行了一系列饱和海砂固结排水三轴剪切试验、半正弦波动力循环试验及等幅正弦波循环液化试验,探究了相对密度、固结应力比、有效围压及细粒含量等因素对其静动力学特性及液化特性的影响规律,并与常规陆源砂及钙质砂进行了对比分析,可为围填海工程设计施工及海砂填料地基稳定性研究提供一定的理论依据。论文研究工作量饱满,研究成果丰富,论文语言表达准确,撰写规范,达到硕士学位论文水平。建议及意见:图5-4中,细砂随着细粒含量增加,其剪切模量呈现先减小后增大趋势,而北部湾砂的回弹模量呈现单调减。那么究其原因是否是北部湾砂的细粒含量不足,而未能获得其上升段的曲线呢?,0,0,0,1,0,0,1,1,0,0,0,0,0,0 +917,该论文以漆画“静谧”为主题展开研究讨论,且是作者用自己创作的漆画展开讨论的,理论结合实际是值得提倡和肯定的。写作中作者以画面语言和情感表达为切入点,分析论述了对情感表达和画面语言相关概念的理解,阐述了《静谧》系列创作的题材来源、创作过程以及对创作整体的反思与总结,论文中介绍了蒙克、莫兰迪国外画家的经验,也列举了本人受国内乔十光、陈立德、林涓等画家对本人创作的启发与影响,深入分析画面语言与情感表达之间的联系,说明作者是比较用心的,这样的学术论文是可取的。 ,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +1441,该文具有比较清晰的问题意识,选题具有重要的理论价值和现实意义。行文中心突出,详略比较合理,既分析了存在的问题困境,又提出了有针对性的破解之策,努力彰显符合社会主义法治国家建设的司法解释之价值平衡架构。该文法言法语,体现出法学的专业思维,有一定的逻辑性,同时也具有一定的自洽性,显示了作者比较扎实的法学理论功底。此外,论文的格式也比较规范。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +2224,1、摘要部分需要凝练,研究问题不清,定位误差概念不清。在“为了提高三坐标测量。。”段中,出现PC-DMIS软件。该软件是海克斯康坐标测量机使用软件。研究的第三个问题——圆度误差分离和前文的关系是什么?整体来看论文题目与研究内容存在不一致。2、论文研究背景和意义也交待的不清楚;研究现状介绍简单,没有说明白现在定位误差补偿存在的问题。3、论文针对国产坐标测量机精度低等问题,开展定位误差补偿研究,个人认为定位就是每个点的坐标位置,而定位误差,是测量位置相对于标称位置的偏差,即论文是要寻求一个重复定位误差,然后对此位置进行误差修正。论文中,利用激光干涉仪测量坐标机测头的位置,是单点单次测量,并不能真正反映定位误差。4、在2.2节“检测系统的误差影响因素”节中,第2条,提出定位误差是丝杆螺距误差引起的,那在前文中光栅长在整个系统中起到的作用是什么?5、文中有较多的概念未厘清,如定位误差拟合。P14页中,由于激光干涉仪测量精度高,所测量的位置可作为标称值,而坐标机所测值为实测值,两者之差为定位误差。后文中也有类似的错误说法。如P20中,出现“利用激光干涉仪得到被测位置的实际点数据,减去目标位置点的理论值就是被测位置点的误差值”这样的错误描述。6、量块使用的哪一种等级,为什么可用它来验证误差补偿效果?7、是否对论文所提路径规划方法与机器自身的路径规划作检测效率比较?结果如何?8、圆度误差分离明显是堆砌在论文中,没有说明白这部分研究内容与定位误差补偿之前的关系!该论文达到硕士学位论文水平,但仍存在较多问题,建议修改完后答辩!,0,0,0,0,0,0,0,-1,-1,0,0,0,0,0 +585,论文应用非线性分析Abaqus 软件,建立了二维铝基碳化硅复合材料的有限元模型;运用Deform 3D 软件实现金刚石刀具对铝基碳化硅复合材料的切削仿真。通过切削仿真,观察仿真中碳化硅颗粒的破碎过程,分析颗粒破碎机理,同时得到切削过程中的切削力、切削温度、刀具应力、刀具变形量等数据。研究改变切削参数对刀具磨损影响的变化规律,对切削参数进行一定的改进和优化,开展铝基碳化硅复合材料精密切削实验,验证模型有效性。为解决该材料精密和超精密切削加工时刀具的选择提供依据 从论文的综述和文献的引用上,反映出作者基本掌握了本学科领域相关研究工作的最新动态和进展。 论文结构严谨,层次分明,逻辑性强,重点突出,反映出作者专业理论基础扎实,具有较好的专业素质和较强的独立分析问题和解决问题的能力。,0,0,1,0,1,1,0,1,1,1,0,0,0,0 +3053,作者结合我国大陆珠宝企业的自身特点,以企业价值评估相关理论为基础,试图研究珠宝企业价值评估模型。作者认为,FCFF模型更适用于对珠宝企业价值评估,并进行了改进,将灰色马尔科夫预测模型引入企业第一阶段的自由现金流预测过程中;以周大福珠宝为研究对象,将改进后的FCFF模型对周大福珠宝企业的自由现金流进行预测,计算出周大福的企业价值。论文具有一定的意义。论文选题符合资产评估专业硕士培养要求。作者能够收集和阅读相关文献和资料,并能够恰当运用,文献综述好;论文总体逻辑结构尚可,层次清晰、观点明确,但论证的充分性和严谨性有待提高;能够收集和使用我国珠宝行业、周大福珠宝的相关资料和数据进行分析;表述方式注意了多样化,有图有标;格式较规范。总体上是一篇基本合格的研究生学位论文。建议:作者缺乏企业价值评估的扎实理论功底,导致全文缺乏理论分析。作者没有深入、系统地分析影响珠宝行业企业价值的内外部因素,仅仅对我国珠宝行业宏观因素进行了分析,且分析深度和全面性还有待提高;没有分析影响珠宝行业企业价值的内部因素。作者在“珠宝企业价值评估模型的改进”中基本上是在做数学练习题,没有阐述和分析其相应的经济理论或者是资产评估理论。作者在“第五章周大福珠宝企业价值评估案例”中,没有深入对影响周大福珠宝整体价值的内部因素(个性化因素)进行分析,仅是对其2017-2021年度财务数据进行了简单分析,未挖掘其背后的个性化因素,导致其后文的预测缺乏理论和环境情况的支撑。作者在P44“截止到评估基准日2021年12月31日,根据周大福珠宝企业在公开市场上公布的年度财报数据来看,……”。作者没有注意到周大福珠宝财年截止日期是3月31日,而非大陆的12月31日。作者所采用的周大福珠宝财务报表数据测算的周大福珠宝企业价值的评估基准日应当是2021年3月31日。摘要第一自然段需要大大精炼。P52,“附录1:香港恒生指数1974年至2021年各年末收盘价”,显然,“收盘价”为“收盘指数”之误,但这却是一个不应当出现的错误。P34,表5-1数据有误。“按业务分类”的总收入与“按地区分类”的总收入把相等,且差异金额巨大。论文大标题中是“周大福”,但正文中使用“周大福珠宝”。是否存在区别?作者应当统一。尽管周大福珠宝在中国大陆设立了众多门店,超过了4500家,其收入总额中超过80%来自大陆,但其总部确是在中国香港,且在香港交易所上市。作者在对其进行分析时,仅考虑大陆因素,却没有分析大陆之外的因素,是否妥当?值得商榷。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +500,论文选题有明确的研究背景和应用价值。文献综述检索了国内外相关研究领域的文献资料,评述了相关领域既有研究成果。论文以大连市某跨海钢箱拱桥工程作为工程背景,利用大型有限元软件Midas Civil/2017 建立模型,对钢箱系杆拱桥的动力特性与施工过程稳定性进行了研究。论文运用有限元Midas Civil/2017软件建立了全桥空间杆系有限元模型,分析了模型在不同荷载组合下的内力;对钢箱拱肋系杆拱桥的自振特性进行了计算,并研究了不同的矢跨比、不同的拱肋倾角、不同的横撑的布置和有无横撑对拱桥的自振特性的影响,得到了有益的结论;建立了扣塔有限元模型,分析了钢箱拱肋系杆拱桥施工过程中扣塔的稳定性,研究不同的扣索刚度、扣塔刚度以及风荷载对扣塔稳定性的影响,分析对比不同参数变化对扣塔稳定性的变化规律;通过将施工现场监测结果与有限元模拟结果进行对比,验证了本文建立的空间杆系模型的正确性与合理性。论文工作量饱满,研究方案合理,方法正确。表明申请人具备了综合运用基础理论、专业知识、科学方法和技术手段分析和解决工程实际问题的水平。论文写作结构合理、层次分明、文理通顺。,0,0,0,1,1,0,0,1,1,1,0,0,0,0 +2235,"1.论文选题合适,结构基本合理,格式基本规范,达到硕士学位论文水平;2.英语表达有较多语言错误,中式英语较明显,定稿前需要进一步修改。例如中式英语的表达:“Thistranslationpracticebelongstothetranslationofappliedstyleinscientificandtechnicaltexts.Thetranslationpracticemainlyfocusesonthepopularizationcontentsofthemagazine,suchasthecoretechnologyofcartuning,relatedracingevents,andindustryrules.”译文质量不高,存在翻译不准确,例如译文的第一句中“mandate”一词的翻译。3.论文对生态翻译理论的论述较为系统和准确,但案例分析中的案例不够典型,特别是文化层面和交际层面的案例不能聚焦文化内容和交际意图,不少翻译的例子实际上还存在语言的问题。4.结论部分二级标题即可,建议将诸如5.1.1、5.1.2、5.1.3……这样的三级标题改为序号或其他的表达。",0,1,0,0,0,0,1,-1,0,0,0,0,0,0 +1357,该论文以工程实例为背景,基于SolidWorks对风力发电机进行了三维建模;并基于CFD理论与建筑物绕流理论,分析了建筑物绕流对建筑物周围风场的影响机理和影响因素,并对分散式风电场局部高风速区域中风力发电机的布局进行了优化。该论文选题正确,对于工程实际中建筑物周围的分散式风力发电机组的布置具有较实际的参考意义。研究方法和思路合理,工作内容较为充实,研究成果具有一定的新意和工程实用价值,论文工作量较大。论文主题突出、结构较为严谨,层次较为清晰、逻辑性较强,文字表达概念基本清晰,表明作者具有一定的理论功底和专业素质。论文反映作者已经能够运用电气工程专业相关理论针对建筑物绕流的风电场优化布局进行研究,并能运用专业知识解决工程实际问题,达到硕士研究生的培养目标和学位论文的要求,同意提交答辩。,0,1,0,1,1,1,0,0,0,1,0,1,0,0 +711,随着海洋开发、探测的需求越来越强,水下机器人成为全世界研究的热门课题。小型水下机器人具有低成本、小型化、操作灵活等特点,成为近年来国内外研究的热点。该论文开展了小型水下机器人在应对复杂环境的运动控制系统及控制算法研究,并对控制算法在小型水下机器人上的应用进行了仿真分析和实验验证。 首先,分析了实验室研发的小型水下机器人在水中运动的受力情况,建立机器人运动学-动力学模型。针对该水下机器人运动特点,将其运动简化,解耦为水平面内的转艏运动和垂直面内的深度运动,并分别建立运动模型。其次,对小型水下机器人的硬件系统和软件系统进行介绍。基于运动模型,设计用于艏向控制与深度控制的串级 PID 控制结构,并将PID控制与模糊控制结合得到小型水下机器人的串级模糊 PD-PI 控制方法。最后,通过对比分析仿真与水中实验结果,验证了串级 PID 控制相比单级PID提高了控制系统的响应速度以及减小超调量,并具有更强的抗干扰能力。 论文选题具有一定的应用价值。论文作者对本研究领域的国内外现状、发展动态及主要文献资料的了解比较全面,显示了作者对本学科基础理论和专业知识的熟练掌握程度,具备了独立从事科学研究工作的能力。 论文作者能够运用先进的理论分析,方法正确,结论可靠,综述简明扼要,文献资料全面,论文达到硕士学位水平,同意修改论文后参加答辩。,0,1,1,0,1,1,0,0,0,1,1,0,0,0 +1779,论文研究在CO2气体保护焊的焊接过程中施加同步磁场,分别在燃弧和短路阶段引入磁脉冲,对焊接过程进行精细控制。研究了在同步磁场作用下,熔滴过渡过程发生的变化,同步磁场对燃弧时间、熔滴形态、短路时间、过渡频率、飞溅率、焊缝成形等影响规律。 . 论文对国内外CO2气体保护焊研究动态的掌握非常好 ,论文所要解决问题的目的及意义论述清晰,研究成果有较大理论意义和实用价值。论文概念清晰、分析严谨,结论合理,工作量饱满,难度较大。 该学生有独立从事科学研究的工作能力 ,较好地掌握了专业理论知识,论文撰写规范,文字表达能力好,较好地完成了研究生毕业论文工作。,0,0,1,1,1,1,1,1,1,0,1,0,0,0 +2272,本论文选题具有一定的挑战性,具有较好的应用价值,论文结构完整,案例阐述比较清楚,相对比较全面,条例清楚,符合论文写作规范。四点建议:1、译文和翻译翻译实践报告语法错误相对较多,有些句子貌似有机译痕迹,建议认真修改;2、论文以文本类型理论为宏观框架,探讨科技文本的翻译,但是在案例分析时,没有围绕科技文本的信息功能探讨翻译策略;3、仅以长句这一翻译现象翻译作为研究对象,有一定的片面性;4、文章的结论,建议增加对文本类型理论指导下的科技翻译实践进行提炼,以为后来的科技翻译提供启示。总之,该论文已经基本达到硕士论文水平,建议修改后答辩。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2058,围绕群成员的匿名性、可追踪性及不可诬陷性问题,论文研究如何构建安全高效的动态群签名方案,解决数字签名隐私泄露的问题,论文选题具有理论意义和应用价值。 作者对群签名相关国内外的研究状况进行较为深入的研究,在文献分析的基础上,论文给出动态群签名方案的匿名性、可追踪性、不可诬陷性、及系统安全模型的形式化定义;利用Fiat–Shamir启发式和Groth-Sahai非交互式证明系统、可验证加密技术、BLS签名算法、和Groth子协议,基于q-SDH和DLIN假设,根据标准模型下的归约性证明非交互式动态群签名方案的安全属性,构建由三个实体和六个阶段性算法组成的标准模型下可证安全的非交互式动态群签名方案;使用群签名系统的实体模型设计相应功能模块,采用UML设计系统用例图和时序图,利用MySQL设计系统数据库,结合Crypto++和jPBC密码学库在Ubuntu上C++和Java语言实现所给非交互式动态群签名系统的服务器端和客户端,验证所设计非交互式动态群签名方法的性能。 论文的完成体现作者掌握本学科及相关领域的理论基础和专门知识程度,具有较强的独立从事科学研究工作的能力; 论文写作较科学规范,语言表达准确,理论推导过程严谨,安全性证明正确,图表表述清晰,测试结果可信,反映出作者学风较严谨。 论文达到硕士论文要求,同意论文答辩。,0,1,1,0,1,1,1,1,1,0,1,0,0,1 +1073,本论文对高损耗密度电机冷却系统展开了研究,提出了水冷板冷却的电机结构设计,分析了冷却水流量和水冷板厚度以及电机损耗密度三个主要因素对水冷板冷却效果的影响规律,对水冷板结构与螺旋水套结构冷却方案进行了对比分析,并进行了案例设计。 论文选题正确,工作量较为饱满,有较好的实用价值,论文写作基本符合科技规范,基本达到了硕士毕业论文水平,同意修改后参加硕士学位论文答辩。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +467,论文通过一系列的试验来研究快速成型非承重墙体材料关键组分的掺量,研究一个适合快速成型非承重墙体材料的促凝早强配比。选题有较好的理论意义和实用价值,阅读资料较广泛,基本能够掌握课题的国内外研究动态及其评述,对本论文所要解决问题的目的及意义论述较清晰,研究方向较明确。得到的研究成果具有一定的论意义和实用价值。论文条理较清楚,概念准确,分析严谨,逻辑性较好;论文撰写符合写作规范,有较强的文字表达能力。,0,1,1,0,0,0,1,1,1,0,0,1,0,0 +130,本文选题符合专业方向,具有较好的实际意义。文章基于单自由抗冲隔振系统分析了粘滞阻尼、库仑阻尼的作用规律,提出一种新型阻尼结构,分析了该阻尼结构下的Stewart隔离平台、并联八足隔离平台响应特性,具有一定的结构创新。通过冲击试验,证明该并联八足抗冲隔离器在水平方向上的抗冲性能显著优于Stewart平台。作者对专业知识的掌握好,能够熟练运用相关软件工具进行研究、分析。写作规范,结构清楚。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +2148,针对目前照明电源大量使用电解电容,造成 LED 光源和电源寿命不匹配的问题,论文采用理论仿真和实验相结合的方法,对数字化无电解电容 LED 电源进行研究。选题具有较好的工程实际应用价值。 论文结合隧道照明电源的使用背景,结合计算机技术和电力电子技术设计了一款以 FLYBACK 电路为基础的数字化无电解电容高寿命 LED 隧道照明用电源,实验测量了电源样机的效率、功率因数和输出纹波率等特性。论文写作层次分明,符合科技论文规范;推理合理,逻辑性较强,反映了该生对本学科相关领域的研究成果有较全面的了解,具有较好的运用科学理论、方法和手段独立解决实际问题的能力。,0,1,1,0,1,1,1,0,1,0,0,0,0,0 +339,管壳式换热器是目前应用广泛的换热器类型,在使用中容易发生失效,轻则造成一定的经济损失,重则可能会引发爆炸等事故,不仅严重影响到人员和设备的安全,而且企业也会遭受到不可估计的经济损失。因此论文选题管壳式换热器失效分析有实用价值和社会意义。 管壳式换热器使用工况的多变性以及在设计、选材、制造、使用和检修等众多因素相互影响下,经常引发管壳式换热器的失效。作者解析了换热器行业的发展,换热器失效的研究成果,管壳式换热器的工作原理、结构特点以及实际运行中常见的失效形式;通过对压力容器常见的失效形式分析,确定管壳式换热器的主要失效形式表现为强度失效和泄露失效,重点分析了强度失效,并给出失效的原因及预防措施;最后用 SolidWorks和ANSYS 软件对其管壳式换热器进行单根换热管、壳程加管程整体以及管箱开孔的分析,找到管壳式换热器容易发生失效的位置,给出预防措施。 研究工作涉及到机械结构、力学分析、三维建模软件、仿真分析软件,做了一定的研究工作。通过研究及分析给出管壳式换热器容易发生失效的位置,和预防措施方案,对于管壳式换热器生产企业及用户有重要指导价值,对于解决同类压力容器设计及失效处理具有一定的参考价值。 论文研究工作表明,作者掌握了机械工程领域的基本理论和基本知识,表现出较强的利用学科专业知识和计算机技术解决实际工程问题的能力,具备了一定的从事科学研究和开展课题工作的能力。 论文工作量适中,条理分明,表达清楚。论文学术观点正确,结论可信。论文水平基本达到硕士学术论文的要求,同意作者进行论文答辩,并建议授予工学硕士学位。,0,1,0,0,1,1,0,1,1,0,0,1,0,0 +1510,钾元素是一种重要的营养元素, 在农业生产中极具有重要作用,《基于氧化钙调控钾长石物相转变研究》一文以钾长石的再利用为研究对象,通过水热温度、水热时间、n(Ca)/n(Al+Si)和液固比对氧化钙浸出钾长石过程中氧化钾提取率的影响因素研究,并用响应曲面法二阶中心复合设计优化了工艺条件,考察了添加助剂蔗糖对浸出钾长石过程中物相和溶解性能的影响, 得到了氧化钾的提取率的较好工艺, 对钾长石的充分利用提供参考, 具有较好的经济和社会效益。 论文选题有一定的理论意义和较强的使用价值,对无机工业的科技进步有一定的促进作用。论文综述比较全面, 对该领域国内外的国内外研究动态掌握的比较清楚,也对要解决的问题有较很好的认识。研究成果有一定的创新性,论文有一定的工作量,对实验设计路线比较清晰,实验结果分析手段比较详细,表明作者具有相应专业的理论基础知识和实验分析能力,论文写作比较规范, 文字表达比较顺畅,但是作者的研究成果不是太突出(仅有一篇二作发表),同意作者适当修改后参加答辩, 授予学位。,0,1,1,1,1,0,1,1,0,1,0,1,0,0 +1282,该论文采用案例研究方法,在参考国内外关于并购动因、并购绩效和并购风险等研究成果和市场势力理论、并购风险理论规模经济理论等关理论基础上,对融创中国连续并购的绩效与风险进行分析。案例研究过程中,论文简要介绍了融创中国连续并购案例的具体交易概况和并购运作方式等,认为融创中国并购动因可能包括增加土地储备、进军二三线城市以布局全国、形成规模效应和实现多元化发展,并采用事件研究法、基于EVA的长期绩效分析、非财务指标的综合绩效分析等角度分析了融创中国连续并购的绩效结果,也探讨了并购存在的定价风险、支付风险和整合风险。最后。论文总结了并购对相关企业的启示和建议。 总体上,该同学的论文选题和研究内容符合会计专业硕士的培养要求,论文研究思路清晰,研究结构合理,案例分析比较准确,研究结论和启示有一定价值。,0,0,0,0,0,0,0,0,1,0,1,1,0,0 +1823,论文以某汽车座椅发泡线作业者为研究对象,从人因失误的角度分析作业现状,找到易产生脑疲劳的工序,运用主观问卷加脑电实验的测评方法对其进行模拟实验,采集作业者数据分析,结合实验结果和生产实际,对座椅发泡车间给出了相应改善建议,并对比改善前后的数据变化进行了评价。论文选题符合本专业培养要求,具有较好的理论研究贡献和对实践工作的指导意义。 论文研究目的明确,重点突出,资料翔实、论据充分;选用研究方法合适,思路清晰。作者写作认真,格式比较规范。可见作者具备了用所学理论知识解决实际问题的能力。 论文达到硕士学位论文水平。,0,1,0,0,0,1,1,0,1,1,0,0,0,0 +3032,自动翻晒谷物机器人可以辅助农民进行谷物翻晒作业,有效减少劳动力,提高作业质量和农业生产率,论文开展自动翻晒谷物机器人控制系统研究具有理论意义和实用价值。论文从控制系统方案设计、硬件模块组成、软件开发流程、控制算法实现等环节进行了描述,完整地展现了该机器人控制系统的设计过程。论文研究内容和工作量基本上达到了专业硕士学位论文要求。论文还需要从以下方面进行完善:(1)1.6节内容放在第2章中比较合适。(2)硬件设计中各模块之间如何连接在各模块电路中根本没有体现,不能体现系统硬件设计的完整性。(3)软件设计过于空洞,关键问题没有交代清楚。例如,在测距过程中,回波往返时间t是如何测量的?能够测量最小的t到底是多少?由什么决定?(4)论文开展了翻晒机械臂运动规划算法研究,并进行了画圆和画方框验证。既然已经有实物机器人,为什么不在实物上进行运动规划实验?(5)论文研究深度不足,数据分析与讨论不够,缺少控制效果的定量评价。,0,0,0,1,0,0,0,0,-1,-1,-1,0,-1,0 +2910,论文针对新能源企业价值评估,用剩余收益模型和实物期权模型进行评估,用杜邦分析对剩余收益模型中所需的财务指标进行分解,减少了对无限期估计所造成的局限与误差,使剩余收益模型的评估过程更加客观,并阳光电源股份有限公司作为评估案例,可以为在其他新能源企业估值过程中提供参考。论文整体框架清晰,分析论证比较合理,写作较为规范,同意修改后进行答辩。但论文仍有以下不足,供作者参考:1、说明本文的创新点建议进一步归纳;2、详细说明剩余收益模型的优势及采用该模型的原因;3、注意论文格式,标题级别;4、潜在价值与现有资产价值可能会存在重叠部分,如何区分;5、B-S模型的参数选取有待商榷;6、说明评估误差原因。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +80,本论文研究了固井泥浆流量计监测曲线拟合问题,研究内容具有一定的实用价值。全文缺乏创新点,主要研究工作是基于作者提供的辽宁省某钻井公司在固井工程中使用BLTD 型固井流量计检测出的数据进行了简单的最小二乘法拟合,尚未达到硕士学位论文的创新性的要求。论文不能表明作者较好的掌握了该学科的基本理论及方法,也不能表明作者具有独立进行相关科研的能力。全文写作有一定的逻辑性。 综上,认为本论文尚未达到要求,不同意答辩。,0,1,0,0,-1,-1,0,0,1,0,0,-1,0,0 +2108,由于基于车载的行人检测对算法的检测精度与效率要求较高,论文中,作者对基于M2Det算法的单阶段目标检测算法进行了改进: (1)针对M2Det的检测精度问题,提出采用改进的VGG网络进行特征提取,并融合混合域通道注意力模块CBAM,增强网络的行人特征提取能力; (2)针对M2Det的检测速度问题,提出减少TUM模块数量,由此降低检测网络的参数量,提升行人检测的速度。 实验结果表明,论文中所设计的深度神经网络模型对行人目标的检测精度和检测速度上均有所提高,基本能满足实时检测的需求。 文章内容较为完整,层次结构安排科学,主要观点突出,研究工作既有一定的理论新意,也有较好的实际应用价值。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +2014,输电线路杆塔基础常年受到风荷载、导线张力等荷载形式的作用,控制荷载通常为上拔荷载,与工业民用建筑基础不同。传统的现浇基础因施工作业面大、周期长,无法完全满足新时期城区电网建设“保质、保速、保优”的要求。微型钢管桩具备施工速度快、布置形式灵活、承载力高等优点,在输电线路杆塔基础工程中具有广阔的应用前景。但目前该类基础广泛应用于房屋加固、基坑支护等工程中,大多数的研究主要考虑抗压、抗弯等情况,而有关抗拔方面研究并不多见。论文以此作为背景,基于输电线路杆塔基础的受力特点,考虑上拔力的作用,开展了一种新型锥端扩底后注浆微型钢管桩抗拔承载特性研究,选题合理。 论文的主要成果及创新点为: 1、开展了注浆与不注浆试验桩的现场抗拔承载性能试验,分析了注浆作用对微型钢管桩抗拔承载力的提升效果。 2、通过现场取样,开展了宏观特性试验和微观结构试验,充分认识了桩-土界面的力学特性,从根本上掌握了后注浆微型钢管桩抗拔承载机制。 3、结合三维扫描和3D打印技术,通过浇筑出相同粗糙度的水泥试块和重塑处理后的土样开展了叠环剪试验,分析了桩土体系的剪切破坏模式。 4、基于现场抗拔静载荷试验结果,采用数值模拟方法,研究不同因素对后注浆微型钢管桩承载特性的影响规律。 总体而言,论文选题新颖,试验严谨,数据翔实,取得的成果对于输电线路杆塔基础的建设有着重大的指导意义。论文写作规范、图标美观、表述清楚。论文已达工学硕士学位论文水平。,0,1,0,0,0,0,1,1,1,0,1,1,0,0 +2907,论文针对无监督条件,提出了一种基于深度卷积神经网络的跨模态检索模型(URCNN),该模型将深度学习方法与哈希方法整合到一个框架中进行训练学习,并在三个公开的数据集上将模型URCNN与其他基线模型进行对比,验证了模型的有效性。论文能够将几种方法结合在一起,使模型的性能得到提升,思路清晰、语言流畅。但是,论文也存在一些不足:1、文献综述不够全面、深入;2、创新点要适度提炼、压缩;3、实验数据集的选取要针对训练目的给出更详细的解释;4、性能指标的选取不够全面,要体现关联性能的验证;5、对比模型要给出介绍;6、模型的参数为什么取固定值?这些固定是选取的依据或原则是什么?最优参数如何确定?7、可能进行检索结果展示的要给出结果展示;8、mAP随时间的变化情况如何需要进行实验分析。论文虽然做了一些实验,但是实验部分还需要进一步丰富,给出严谨、科学的实验结果。,0,0,-1,0,0,0,0,1,1,0,0,0,0,0 +1219,本文针对新型双定子无刷双馈风力发电机的控制方法进行了研究,建立了该种发电机的数学模型,采用预测直接功率控制方法进行功率跟踪控制,提出基于SVPWM模型预测直接功率控制方法,并进行了仿真对比分析。由仿真结果验证了预测直接功率控制方法对实现功率跟踪以及固定开关频率的适用性。论文结构基本完整,论文写作语言流畅,图表规范,表明作者具有本领域扎实的基础知识和专业知识,具有独立从事科研工作的能力。,0,0,0,0,1,1,1,1,1,0,0,0,0,0 +1410,该生使用深度学习的方法,通过卷积神经网络筛查糖尿病视网膜病变,构建GoogleNetinceptionV3模型,并改变残差神经网络模型深度和结构测试糖尿病视网膜病变分级效果,以设计最佳模型,具有一定的应用指向。论文国内外调研较全面,论文格式较规范,图表基本规范,实验证明具有可行性。 论文存在以下问题: 1、提出要解决的科学问题模糊,理论创新较薄弱,构建网络模型仅调整模型深度,科学价值不明显; 2、第4章缺少对算法全貌的阐述,结构有待优化,文中的主要研究内容涉及对现有模型结构的调整和测试,应说明与对比算法的差别,在文中阐明论文的创新点和贡献; 3、图5.10,图5.11应有度量标准; 4、表题应简明清楚。,0,1,1,0,0,0,1,0,0,0,0,-1,0,0 +2211,《高级汽车故障诊断》(第五版)部分章节被动结构汉译实践报告,具有专业特色,选题有意义。将赖斯文本类型理论应用到汽车故障诊断一书的翻译中是合适的。该理论较为经典,适用性强,对翻译实践有一定的指导性。也正是由于其经典和宏观性,应用该理论进行研究可能缺乏新意。有以下一些地方尚值得商榷和改进:1.报告的题目是《高级汽车故障诊断》(第五版)部分章节被动结构汉译实践报告,不免让人产生疑问,作者只翻译了被动结构么?但细细读来,作者实际参与翻译的内容是列在附录中的第六章内容;在实践中碰到的最大问题是被动结构的翻译,并将被动结构作为了casestudy内容。因此,报告的题目是否可以修改为《高级汽车故障诊断》(第五版)第六章汉译实践报告。2.在文章的第一部分对featuresofthesourcetext叙述较少,ST的风格决定着翻译理论与技巧的使用;因此汽车故障英语文本的语言、风格与文化特征还可以增加一些。3.在文章第二部分process中,没有看到ParallelTexts.也未看到schedule,作为一个翻译实践,应该有合理的进度安排.4.翻译实践中遇到问题肯定不少,本文只对passivestructure进行了阐述,但在LexicalLevel,SyntacticLevel,rhetoricLevel,LogicalLevel一定会碰到难题。可以选择简单述之,使之更像一份实践报告。5.部分术语的翻译值得商榷,是否符合国人的表达习惯。例如:附录中的图6.16铜芯火花塞是“氧化铝绝缘体”还是“绝缘体氧化铝”。Body翻译成“壳体”还是“机体”。,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +2253,"本翻译实践语料选取《某载货车维修手册》(离合系统)汽车维修手册完成汉译英翻译实践及分析报告,货品的中英文或者多语种说明手册对于不同语言使用者具有重要意义,选题合乎要求。译文货车维修专业术语信息基本准确明了;基于机译软件机翻译后审校,运用CEA理论框架进行案例分析,翻译过程较为科学严谨,举例分析基本恰当,该论文的翻译工作量和实践报告分析均基本达到翻译硕士学位要求。建议进一步修改优化:1、基于断句和排版美观考虑,“英译实践报告分析报告”置于第二行。2、中英摘要部分第3段,5部分介绍序号,“首先···其次···第三部分···”,中文使用不统一,英文也建议标号整齐一致。3、规范参考文献,如12条方梦之.《英语科技文体:范式与翻译》[M].国防工业出版社,缺少出版社所在城市。4、全面修改润色语言。",0,1,0,1,1,1,-1,-1,0,1,0,0,0,0 +2152,针对永磁直线同步电机系统,该论文提出了一种基于线性矩阵不等式和混合H2/H_\infty 控制的控制方法,仿真结果表明所提方法相比于PID控制方法,具有较好的鲁棒性。采用智能算法中的粒子群优化算法来处理混合H2/H_\infty 控制求解问题,提高系统的跟踪性能。论文选题具有实际意义,较好的掌握了国内外的研究动态,论文给出较完整的控制算法与优化求解方案,写作思路清晰,语言流畅。不足之处在于只有理论研究,没有实验研究,算法复杂性和实现难度有待进一步分析。,0,1,1,0,0,0,0,1,1,1,0,0,-1,0 +2638,论文根据山地柑橘果园喷洒农药的实际作业要求,研究并设计了履带式智能化底盘,并对车架、驱动系统等进行了分析、仿真及优化,通过试制的样机测试验证了底盘的相关性能,论文对实际柑橘农药喷洒机具的研究具有一定的借鉴作用和意义。建议论文在以下方面进行修改完善:1.关键词中“模块化”在摘要当中没有任何体现;2.摘要在底盘样机的性能测试描述中,应采用含有具体数据的结论预以说明;3.控制系统的设计过于粗略,仅有控制框图和原理描述应增加相关软硬件的设计。,0,0,0,0,0,0,0,0,0,-1,0,1,0,0 +2784,论文选题有一定意义,能运用本专业所学知识,做到理论联系实际。论文写作结构完整,逻辑清晰,文笔通顺,格式符合写作要求;参考资料选择适当。如何在师范院校声乐课中采用声乐集体课,是本课题的难点,需要研究如何做好集体课与小组课之间的转换和衔接。前面二章都提到了声乐集体课适用于师范声乐教学,但在后面的解决方案及案例中都没有论述,看得出没有开展这方面的研究,显得本论文的研究深度略显不够。虽有一些不足,但论文的在整体上达到了硕士学位论文水平。,0,1,0,0,0,0,1,1,1,0,0,0,-1,0 +1482,高速永磁电机在高频状态下,单位质量损耗比常规电机大,温度过高将影响电机运行性能,对铁耗和温升进行试验分析具有理论意义和实用价值。 文中对硅钢片B20AT1500、DW270-35、DW210-35和非晶合金2605SA1四种不同材料在不同频率、不同应力、不同温度下,测试 实验数据,分析频率、应力和温度对材料磁性能和损耗性能的影响,通过有限元计算和分析铁心材料这四种材料受频率、应力和温度影响的铁耗和影响情况,并对电机进行温升实验。 论文进行了大量的实验数据测试和数据分析,分析结果较合理。论文表述较清晰,结构较严谨,格式较符合学术规范。,0,1,0,0,0,0,1,1,1,0,1,0,0,0 +2415,当前,车载摄像头技术日渐普及,各汽车产业也各自推陈出新,力求在日益激烈的时长竞争中占有一席之地。就这一现实背景而言,这篇围绕车载摄像头产业研究报告展开的翻译实践具有一定的现实意义。从论文整体来看,作者翻译思路较清晰,语言通顺,观点表达也比较准确。作者能综合运⽤相关的翻译理论并结合具体文本特点解决翻译中遇到的问题,但总体来看,不过就是术语、专有名词和习惯用法等,尚不能很好地突出车载摄像头产业研究报告的特点,就这方面来说,创新点稍⽋缺。主要问题有三个方面:1.作者主要根据Reiss提出的“TextTypeTheory”作为指导开展翻译。其实Reiss的这个理论只不过是将文本进行了三个层面的区分,实际上应该对于作者的翻译并无太大指导意义。虽然作者根据Reiss的观点将翻译实践的文本确定为信息型informative的,但显然在翻译过程中,我们发现,那些产业研究报告人为了让自己的表达跟家吸引眼球,也是极尽自身文笔之能事,使用了大量expressive的表达,如作者在文中提到的“一骑绝尘”“破釜沉舟”等。所以,从这一点上说,对于informative这一翻译指导是不是就真得能够为作者提供恰当的指导,需另当别论。2.作者一再强调自己所翻译的文本特点就是objective,也提出要用最简、最客观的语言进行翻译,这在“一骑绝尘”、“百花齐放”等翻译的处理上表现得很好,但在另外一些习惯表达时,仍然用了可能对于英语母语者很难懂的形式进行表达。这种突然的画风突变让读者感觉有点无所适从,甚至会产生歧义,如对于“破釜沉舟,加速追赶”的翻译,突然使用了burntheirboatstoacceleratethecatch-up。禁不住会让人问“把船烧掉”与“迎头赶上”有何关联?3.论文中的字体使用比较混乱,有些词汇的拼写也有误。建议作者仔细规范体例,对于文中内容进一步修改。,0,1,0,0,1,1,0,1,1,0,0,-1,0,0 +1788,论文以600MW水轮发电机为研究对象,进行进相试验测试,通过最小二乘参数辨识的方法确定发电机交轴电抗参数,并建立了适用于单机无穷大系统的仿真测算模型,研究限制同步发电机进相运行的因素,并预测同步发电机进相运行能力。论文研究具有一定的理论意义和应用价值,论文结构较合理,内容较充实,体现了作者具有一定的分析问题和解决问题的能力。,0,0,0,0,0,1,0,0,1,0,0,1,0,0 +976,文章将刘思军的《呼》作为研究对象,通过对这首电子音乐作品从曲式、组织结构、声音采样以及调制的技法分析,以及东方语境在作品中的具体呈现,并结合该生对作曲家利用GRM不同的调制模块对材料处理的技法分析,说明该生对作品的创作、制作流程有了很好的了解。论文撰写符合专业学位论文的选题要求,论文的格式符合写作规范要求,但部分语言组织及准确性有待提高。该论文与该生所修专业结合比较紧密,能够客观反映该研究生专业技能与学术研究水平。,0,0,0,0,0,1,0,1,0,0,0,0,1,0 +2364,本文以汽车队列行驶的气动特性为研究对象,开展了如下工作:(1)对Ahmed模型进行仿真,并与已有文献中的风洞实验数据进行对比,验证了仿真计算方法的可靠性。(2)模拟无侧风时汽车队列行驶的气动特性。(3)对有侧风时汽车队列行驶的气动特性进行数值模拟,并通过局部流场进行分析解释。(4)对混排行驶中的纵向和横向间距进行响应面优化设计,以阻力系数为响应目标,得到最小的纵、横向间距。论文使用响应面优化设计以阻力系数为响应目标得到影响阻力系数的最显著因素和混排行驶中使阻力系数最小的纵、横向间距,在该研究点上有一定创新。不足及需修改之处:(1)车辆队列流场均通过仿真计算得出,缺乏相关实验验证。(2)车辆队列分析未考虑车辆侧向稳定性。(3)优化样本模型数据较少,无法保证优化结果的准确性,建议补充样本。,0,0,0,0,0,0,0,0,0,-1,0,0,0,0 +78,本论文选题尚可,基本能反映当前相关行业发展的要求,论文提出的研究思路和实验设计比较合理。论文整体书写清晰,逻辑性较强。对材料分析和测试手段的运用比较充分,反应出作者对材料研究领域知识和实验分析手段比较掌握。对创新点的归纳和提炼不够充分,基本上归纳了观察到的现象,如果能作进一步的机理分析则更佳。论文基本达到硕士论文要求,建议予以答辩。,0,0,0,0,1,1,0,1,1,0,0,0,0,0 +516,论文研究电力变压器铁心剩磁的相关问题,选题具有理论及实用价值。论文完成的主要工作是结合铁磁材料的特性对变压器铁心剩磁与励磁涌流进行分析,建立了基于损耗分离法的动态J-A 模型,应用粒子群算法对J-A 模型的参数进行辨识,以单项变压器为对象通过建立变压器的J-A模型分析励磁电压、励磁电流和变压器剩磁的关系,给出了相应的仿真结果。 论文结构完整,写作规范。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +531,论文研究了一种储能系统参与清洁能源电网调频的容量配置方案,论文选题具有一定的理论意义和实用价值。论文主要工作有: 1.建立了超级电容器和全钒液流电池的等效电路模型; 2.研究了复合储能系统的并网结构和并网方式,提出了一种虚拟同步机技术实现了并网变流器的控制; 3.提出一种复合储能容量配置方法,并完成了算例检验。 论文工作量适中,结构完整,论述较清楚,图表规范,有一定的创新性,作者具有一定的专业理论基础和独立从事科学研究的能力,符合硕士学位论文的要求,同意提交答辩。,0,1,0,1,1,1,1,1,1,0,0,1,0,0 +350,基于 ASP.NET 的教学互动平台的设计与实现 论文工作主要是针对教学互动平台进行了系统的设计与实现,基于成熟的软件开发和设计技术,采用传统的工具和模型设计和实现教育信息管理平台,作为一篇具有一定工程性质的论文,论文工作量显得有些不足。 基于信息技术的教育管理平台是一个相对比较成熟的应用领域,论文的理论价值和应用价值均显相对薄弱。论文的工作并没有在工程技术上和系统模型进行创新,虽然论文有提到将数据挖掘等技术应用到平台中,但论文的描述并没有清晰地体现这一点,建议进一步厘清论文工作目标,进行深层次的技术讨论。 论文结构层次结构不够清晰,重点不够突出,论述相对规范,文章格式勉强符合学术规范,论文的研究工作反映作者研究能力相对薄弱且工程实践能力尚需提高。,0,0,0,-1,0,-1,-1,1,-1,0,0,-1,-1,0 +495,论文选题涉及电动汽车行业,针对电动大巴车用永磁电机的冷却系统设计与散热进行了研究,研究内容有较大的理论与实际意义。论文的创新性工作有:建立了电机发热功率模型并进行了理论分析,研究了散热理论及电机散热系统方案的设计问题,对某种样机进行了相关参数实验测试分析。论文的研究成果具有一定的实用价值。论文表明作者较好的掌握了课题相关的专业理论知识,有独立从事科学研究的能力。论文条理清楚,概念清晰,撰写规范。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +730,为解决手动调整焊枪所引起的质量难以保证,劳动强度大等问题,本论文研究了加热电缆焊缝跟踪系统,分析了影响焊缝偏离的中心的原因并提出解决办法,并利用 VB 程序语言将它运用到系统中。通过研究焊缝图像处理相关内容,设计了一个基于摄像机的焊缝跟踪系统,具有明显的应用价值。 整篇论文所设计的研究内容知识较宽,工作量大。论文撰写规范,论文格式正确,结构科学、书写规范,条理清晰。,0,1,0,1,0,0,1,1,1,0,0,0,0,0 +2824,论文以Mg-4Zn-X合金为研究对象,通过添加了Sn,Y元素,然后以不同工艺的进行轧制实验,对轧后板材显微组织、力学性能、阻尼性能和电磁屏蔽性能的进行了分析,进一步探索影响合金性能的主要因素。论文选题具有一定的理论意义和较大的使用价值。作者通过阅读相关的参考文献,对本课题所在领域有一定的理解,基础理论知识和专业知识扎实,能熟练应用计算机软件,创新能力尚可,具备从事科学研究的能力。论文中总体参考文献偏少,可以适当补充;个别地方还有别字;轧制时压下量对相关性能是否有影响?从标题来看,电磁屏蔽性能部分内容偏少,主要涉及力学性能和阻尼性能;第五章内容只有结论,缺少展望,是否需要?综合评判,同意该生参加硕士论文答辩。,0,1,-1,0,1,1,0,-1,-1,0,0,1,0,0 +1975,论文作者在广泛分析国内外相关研究现状的基础上,以水泵测试操作台人机界面为研究对象,开展研究,论文取得如下成果: 1.设计并于 改善前进行眼动实验,以发现当前界面在布局尺寸,显控布局等方面的现存问题 2. 针对显控界面,显示器和控制器进行了改善设计 3. 利用JACK软件进行仿真 4. 针对改善后的界面设计实施眼动实验,并进行问卷调查,应用统计学工具进行详细分析对比,验证改善结果。 论文工作表明,作者在本领域基本掌握了相关理论知识和专业知识,有一定的理论联系实际解决问题的能力,论文叙述清楚,结构基本合理,基本达到了硕士论文的水平和要求。,0,0,0,0,1,0,0,1,1,0,0,0,0,0 +82,本论文以一种第四代单晶高温合金为基础,通过改变合金中某些元素的含量,在不影响合金力学性能的前提下提高合金的组织稳定性。设计了六种成分的镍基单晶高温合金,利用多种微观分析手段研究了Mo、Co等关键元素变化对镍基单晶高温合金组织及蠕变性能的影响,分析了镍基单晶高温合金在1100℃和1140℃的高温氧化行为。选题正确,对镍基高温合金的应用具有一定的借鉴作用,研究内容丰富,对学科知识的掌握较扎实。,0,1,0,1,1,0,0,0,0,0,0,0,0,0 +1830,论文以三相卷铁心变压器为研究对象,通过对卷铁心结构及磁路的分析,研究三相卷铁心变压器磁场分布特点及心柱与铁心单体之间的磁场变量关系,并对平面式三相卷铁心变压器进行结构建模及电磁性能仿真计算。以此为基础提出空载损耗计算的工程方法。探究减小其特殊结构所带来的单体基波磁密增加及三次谐波附加损耗的方法,对铁心结构进行改进,为工程实际生产提供参考依据。 本文该论文逻辑清晰、立意明确、研究方法合理,选题具有很强的针对性和较好的工程应用价值。论文工作量饱满,叙述层次分明,行文符合学术规范,反映出了作者对该学科领域基础理论和专业知识掌握的全面性,并且具有较强的科研能力。建议作为硕士学位论文安排答辩。 质询问题1:图3.3中外电路的参数如何选取? 质询问题2:不同的铁磁材料,J-A磁滞模型相同吗?若不同,哪里不同?,0,1,0,1,1,1,0,0,1,1,0,0,0,0 +1281,该论文采用案例研究的研究方法,研究对赌协议对企业的影响,以青岛金王公司的并购行为为例。论文主题和公司实践息息相关,“高溢价”、“高承诺”的并购活动越来越普遍,选题具有一定现实意义。该论文对相关文献进行梳理,内容丰富,并对文献进行了一定的评述。在案例分析过程中,本论文通过短期绩效和长期绩效两个方面来评价公司并购的绩效,体现了一定的工作量。,0,1,1,1,0,0,0,0,0,0,0,0,0,0 +1918,论文针对基底细胞癌(BBC)病理图像H&E染色不均匀、肿瘤形态不规则给医生诊断带来困难的问题,研究图像病灶区域分割方法。选题具有一定的理论和临床应用价值。 论文首先对病理图像数据进行预处理,增强分割模型的鲁棒性;然后结合Unet++网络,提出一种加入边缘感知的基底细胞癌病理图像病灶分割方法(BA-Unet++),提高对基底细胞癌病灶区域的分割性能;最后以Accuracy、MIoU 以及FWIoU 作为评价标准,并以Unet、Unet++、DeeplabV3+作为对比网络,对预处理后的数据集进行分割,验证所提BA-Unet++网络的性能。 论文结构合理,书写较为认真,符合学术规范,表明作者具有较为扎实的基础知识,并具备了初步的科研能力。同意答辩,但还需对论文作进一步修改.,0,1,0,0,1,1,0,0,1,0,0,0,0,0 +2512,该篇硕士论文针对交通噪音布置的声屏障,从材料的角度,就水泥基陶粒吸音材料这种超高耐久性多孔吸音材料开展研究,通过试验得到水泥基陶粒吸音材料的最佳配合比,再次基础上添加压电材料增强结构振动带来的声损耗,并围绕压电材料掺量开展了细化试验,掌握其对水泥基陶粒吸音材料吸声性能的影响。最后对该种材料进行了工程应用研究,设计出一种吸声层与隔声层叠合结构的声屏障屏体,并且对其力学性能进行试验分析。论文选题具有重要的实用价值,相关研究成果在理论和实践方面均具有较高的实际意义和学术价值,内容的逻辑连贯性较好。表明作者具有一定的基础理论以及专业知识,基本具备开展研究工作的能力。同时可以看出作者能够掌握本领域重要参考文献资料,论文的规范性及文字表达能力较好,科学研究思路较为清晰。但是仍存在以下问题需要修改。1.摘要对于背景的介绍过多,可放到正文引言2.抗压强度的单位是MPa,请更正文中写法。3.第2章引言部分建议重写!参考国内高水平期刊论文引言的写法。4.论文排版问题需要注意,例如图与图名跨页分隔(图2-7)、正文中行间距不统一(页码23处)、公式乱码(式3.2上方)等问题不在一一例举,请作者自我认真检查。5.3.6本章小结时针对吸音系数和抗压强度的回归公式不应写在此处,请调整,6.1处结论也是如此,并且6.1处不应出现表6.1。6.参考文献的年限都比较旧,最近的是2019年文献,请补充近三年相关领域文献,另外文献引用格式要准确,请查看GB3469-83《文献类型与文献载体代码》相关规定。,0,1,-1,0,1,1,-1,0,1,0,0,1,0,0 +2519,该生翻译实践是关于乘用车维修手册的英译,选题应用性强,具有一定的实用价值。译文能够准确理解原文的信息,误译和漏译等问题都能够有效避免。译文表达的信息忠实于原文,文体上也能较好地表达原文的应用文体特征,译文顺畅,不会引起读者理解上的歧义。术语的翻译比较准确,具有一定的专业性。翻译实践工作量饱满,实践报告表达清晰,结构完整,条理性较强,语言无拼错误,用词也较为恰当,句子结构错误很少,实践报告符合写作规范。实践报告结论部分表述不够充分,有些表述有些牵强,是略显薄弱的部分。,0,1,0,1,1,1,1,1,1,0,0,0,0,0 +2517,该生的毕业文章已经达到硕士学位论文水平。文章选题较好,具有一定的现实意义,论点突出,内容基本完整,材料及论述能为论点服务,文献材料收集详实,所得数据合理,能综合运用了所学知识解决问题。不足之处主要有以下几方面:(1)摘要部分的语句要继续凝练。(2)文献述评部分内容有些不够全面,还需完善。(3)第二章、二W村民族地区留守妇女自我效能感的现状部分,内容不是很清晰、有些单薄,可否进一步充实或者将调查图表插入其中会更有说服力。,0,1,1,1,0,0,0,-1,-1,0,0,0,0,0 +1444,该文选题紧密结合大学生思想和日常生活实际,具有较强的现实针对性,具有一定的理论意义和参考价值。全文结构基本合理,逻辑思路清晰,层次分明,观点表达基本准确,方法较为合理,基本符合写作规范要求。学科知识掌握较为扎实,能运用所学专业知识并结合大学生思想和生活实际调研、分析和解决问题,论文写作具有一定的创新性,参考的文献资料基本符合主题要求。,0,1,1,0,1,1,0,0,1,1,0,1,0,0 +3041,综合评价本论文选题有较强的理论价值和应用价值,文献材料收集详实,在吸收学术界研究成果的基础上,有自己的心得体会,提出自己的观点,言之有理。本文作者基于背景值优化研究改进了的灰色残差马尔可夫链模型。本文的研究成果拓展了能源利用效率预测的方法,丰富了马尔可夫链理论的应用场景,具有一定的理论推广价值。本人论文达到硕士学位论文水平。论文存在的问题及不足之处本论文在研究内容和撰写格式上存在问题和不足:(一)论文研究内容体量薄弱,研究资料不够翔实。1.国内外研究现状部分作者仅罗列了文献,综述分析不足,与研究内容相关的前沿现状和发展趋势如何并未交代。2.绪论中并未交代本文的研究意义,目前很多学者提出了精度更高的基于数据驱动的预测模型,本文的研究意义和应用价值体现在哪里?3.论文题目表明本文工作是“广西能源效率分析”,但论文仅做了效率预测工作;此外,摘要中提到“迫切需要找到提高能源利用效率方法”,但论文并未给出相应的理论方法。4.作者改进了背景值优化方法,在原式基础上增加了常数项,但作者并未阐述为何本论文增加常数项会比前人方法要好。作为论文核心研究内容和主要创新点,需要提供相应理论证明和分析。5.第四章提到“需通过检验判定模型合理性”,但本论文在指数型数据使用模拟生成的样本数据进行检验,说服力较差;此外,对于稳定型和缺失型数据序列体量过小,无法体现模型合理性。(二)论文撰写格式混乱,内容布局欠妥。1.论文中“马尔可夫”与“马尔科夫”应用随意,缺乏统一。2.表格形式混乱、内容可读性较差。3.模型检验部分数据冗长、形式单一,应放到附录中或改变表现形式。4.参考文献格式不统一。例如,[7][8]中逗号、页码形式不统一等。综上所述,望作者认真仔细修改论文。,-1,0,-1,0,0,0,-1,0,0,0,0,0,0,0 +2330,本文选取ABB-IRB2600的六轴焊接机器人作为研究对象,介绍了D-H参数方法以及建立连杆坐标系,根据机器人的D-H参数,建立机器人模型,进行运动学方程的计算,使用MATLAB验证运动学方程,接着分析研究了不同轨迹规划空间中常用的基本算法;最后,使用离散仿真软件PQArt进行碰撞、不可达点和奇异点的检测。有些问题还有待完善,具体如下:(1)由于式(2-16)较长,公式引用有问题。(2)第三章,论述了B样条函数法的基础概念和理论进行计算分析,后面的插值轨迹规划中,没有采用,如果有必要论述B样条的话,建议增加相关的应用,并进行对比研究。(3)教学优化算法(TLBO)的文献介绍绝少提及,不符合当前的研究背景论述情形。(4)是什么原因促使作者选择采用“教学优化算法(TLBO)”?(5)教学优化算法(TLBO)围绕本焊接机器人的优化问题,优化过程,优化结果,文中没有给出来,有待补充。(6)由于没有实验验证,PQArt软件的后置代码导出后,不能保证轨迹规划代码的正确性,有何补救措施吗?前面的DH法是否可采用进行理论计算,或通过matlab仿真,弥补其中的不足。,0,0,0,0,0,0,0,0,-1,0,0,0,0,0 +1316,该论文通过理论分析、数值模拟、实验验证等方法对固体蓄热器蓄放热过程进行了综合性分析,针对固体蓄热器的效率、寿命、经济性等相关的关键问题,从结构、控制等方面进行了优化研究,给出功率分布优化、结构优化及其相结合的复合优化方法及模型,设计了一种高倍率固体蓄热器结构,构建了一种固体蓄热器预测性智能控制供热系统。论文选题具有一定的理论研究和实际应用价值,比较完全的叙述了在该领域的研究现状,论文工作量适中,写作规范,逻辑性较强,达到了博士论文的要求。,0,1,1,0,0,0,1,0,1,0,0,0,0,0 +1004,"""大容量直流外送型电网直-火-风联调控制策略研究""论文研究内容分为四个部分:结合西北地区高风电渗透率、新能源盈余功率直流外送等特点,提出基于风火打捆直流外送系统的风电-火电调频控制策略;结合西北地区新能源渗透率较低、大容量直流外送等特点,提出基于东北 大容量交直流混联系统的直流-火电调频控制策略;针对风电集群牺牲或吸收转子动能参与一次调频后的动能恢复过程,制定频率稳态下的风场二次调频方法;以西北地区风火打捆直流外送型电网、东北大容量交直流混联电网两种特 色电网为背景,制定大容量直流外送型电网直流-火电-风电联调控制策略。将两种特色的对象进行了研究。目的明确,对国内外的研究动态掌握比较深刻。研究成果具有一定的创造性。论文写作条理清楚,符合论文写作规范。作者具有一定的独立从事科学研究的能力。达到了硕士学位毕业水平要求。",0,0,1,0,0,1,1,1,0,0,1,0,0,0 +969,社区工作者职业化、专业化发展是目前社区工作者建设的基本方向,关注社区工作者群体的职业特点、剖析其职业发展中可能产生的职业倦怠是提升该队伍建设水平的重要内容,基于此,论文的选题具有一定的现实意义和实践指导意义。在对上一稿进行修改后,论文研究问题与研究对象进一步清晰,对前期研究成果的总结与归纳渐趋明朗,核心概念界定较为明确,研究方法使用较为恰当,研究结论具有一定的实践解释意义和指导意义。语句表达较前一稿有了较大进展,错别字、语句不通等问题得到了纠正。整体上看,论文基本达到了硕士学位论文的要求,建议修改后参加答辩。,0,1,1,0,0,0,0,1,0,1,1,0,0,0 +1479,高等教育“以学生为中心”教育理念的研究是一个具有比较重要的理论与实践意义的选题。本选题符合马克思主义理论专业硕士选题方向要求。 本论文分析了国内外关于“以学生为中心”的研究、新时代对高等教育新要求及“ “以学生为中心”理念内涵,总结了目前高校中应用“以学生为中心”教育理念过程中所面临的不足及原因,面对不足及原因,提出“以学生为中心”高等教育应该坚持的育人原则和实施路径。整体来看,作者对该问题进行了比较系统深入的思考,特别是在现存问题及原因分析的部分比较深入。 综观全文,该论文思路比较清晰、论证比较充分、逻辑性较强。参考资料比较丰富,文字表达流畅,工作量比较饱满。,0,1,1,1,0,0,0,1,1,0,0,0,0,0 +1381,该论文针对老年人残疾人在康复训练时极易发生摔倒造成二次伤害的问题展开研究,进行智能康复设备摔倒检测与防摔倒控制策略的研究,选题具有一定的实用价值。针对向前摔倒问题提出了一种改进的模糊推理摔倒检测策略,由于其无法检测突发性摔倒,进而提出了一种基于卷积神经网络的摔倒检测方法;并且针对向前摔倒问题提出了一种自适应阻抗控制防摔策略,进行了仿真验证,验证了提出方法的合理性,论文具有一定的创新性,实验方案和技术路线较为合理。论文思路清晰,逻辑合理,原理正确,规范性较好,工作量饱满,表明作者基础知识较扎实,具有一定独立分析解决问题的能力,但也存在一些不足之处,建议修改后直接答辩。,0,1,0,1,1,1,1,0,1,1,0,1,0,0 +2975,文章以高新技术企业为研究对象,基于企业社会责任视角,选取经济增加值(EVA)评估模型对其进行价值评估,并利用科大讯飞作为代表性案例进行应用和验证,结果表明本文所用评估模型更具优势。文章选题基本合理,论述清楚,具有一定的理论意义与实践意义,基本达到硕士学位论文水平,然而仍存在以下问题:1、研究背景中存在太多与本文研究主体无关的内容,主题不突出。2、文献评述较为简单,所述问题不够凝练。3、高新技术企业社会责任指标体系的构建过程主观性太强,缺乏理论依据。4、建议补充相关对策与建议。5、建议增加每章小结。6、总体而言,文章结构不够完整,且工作量稍显不足。,0,1,-1,0,0,0,0,0,0,0,0,0,0,0 +2050,网络有偿删帖是一种控制网络舆论的违法行为,在新时代控制资本无序扩张的背景下,对此展开研究极具理论和实践价值。 文章从法学、传播学、法律经济学的角度,对网络有偿删帖行为进行了较全面的梳理和分析,论述有偿删帖行为的特点、方式,探讨网络有偿删帖行为侵害公民的基本权利、破坏社会秩序等危害性。分析网络有偿删帖行为现阶段规制的不足,并就制度的完善提出了相应对策,特别是明确有偿删帖委托人的法律责任颇有见地。虽然追究委托人责任没有明确法律规定,但可以依法律原理推定或解释。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +1928,论文针对目前电动机保护装置存在的问题,开展了一种基于电流热效应的新型电热式智能电动机保护方法的研究,选题具有实际工程应用价值。 论文工作的主要成果为: 1. 根据电器的发热和散热平衡方程,推动出稳态温升与电流的数学关系,并采用串联超前校正网络的方法和递推算法,能快速预测出稳态温升。 2. 设计出了电热式智能电动机保护系统的软硬件电路,实现了对电动机运行状态的监测和故障保护。 3.实验验证了所设计的电动机保护方法的有效性。 论文写作规范,语句通顺,逻辑性较好。研究工作表明,作者掌握了本学科的基础理论知识,并具有一定的应用能力。,0,1,0,0,1,1,1,1,1,1,0,0,0,0 +1806,论文以钢丝绳隔振器为对象,对钢丝绳隔振器的力学特性及其迟滞模型进行了研究。通过将钢丝绳隔振器简化为单自由度隔振系统对其进行了运动学响应求解,分析不同阻尼下隔振器的响应情况。以球型、蝶型钢丝绳隔振器为实验对象对其进行准静态、 动态及冲击实验,分析隔振器的静力学及动力学特性。以实验结果为基础, 对钢丝绳隔振器的迟滞模型及参数识别进行研究。论文选题符合工科硕士研究生的培养要求,整体上,论文工作量饱满,写作基本规范,达到了硕士研究生的培养目标,同意申请答辩。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +803,在新能源汽车电机系统中,电机是十分重要的一个部分。新能源汽车电机要具有宽弱磁扩速、高功率密度以及大的高效率区间的特性,因此在设计新能源汽车电机的时候,要着重从这三方面考虑。论文依据新能源汽车用永磁电机的特点,对电机的转子结构、弱磁扩速性能、高效区、电磁设计进行了研究,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,建议修改后参加答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +2373,"本文以证券公司企业价值评估方法改进为选题,对构建和改进适用于该类主体价值评估的方法体系有一定的推动意义。作者对相关文献进行了收集和梳理,对研究和应用现状进行了分析和综述,围绕研究问题运用FCFF方法并通过引入非财务指标等方法进行改进,提升了评估结果的准确度,改进方法的思路和模式对同类主体价值评估有一定的借鉴性。论文反映作者已掌握了本专业的基础理论知识,具有调查研究和从事本专业的独立工作能力。论文叙述基本清楚、结构合理,层次分明,达到了资产评估专业硕士学位论文的水平。同意参加硕士学位论文答辩。但,建议对以下问题进行修改完善:1、摘要撰写第一二段适当简洁,并开门见山引出选题意义,现在的文字中离题过远,难以体现出证券公司估值问题有何意义。2、文献综述第一段“西方资产评估的发展至今已有100多年的历史,相对于我国资产评估的发展较早。目前,资产评估主要方法包括三种:成本法、市场法、收益法。”这段话起什么作用,下面的综述中可不局限于这些方法。如何统领国外文献的专题分布?3、第二章第三节在没有先行提出FCFF的前提下,将其他方法与之相对比,但在第三章第一节才介绍其原理,在逻辑关系上不合理,建议调整理顺。第一次出现FCFF应当写明全称。适用性分析中应立足于该类主体的共同特征,而不是直接定位于本文案例。4、非财务指标的选取依据要介绍,人力资源方面选取二个指标,文化方面并没有体现。5、P35,(五)评估结果,倒3行,“所对应的股东价值为因此说明了此次非财务指标的改进有效地减少了一定的误差”,不明就里,部分文字表述存在错误,要全文认真检查。6、P37表格和文字,不清楚与研究主题有何关系,个人认为是画蛇添足。7、P35-36对比部分,相对混乱,改进前、改进后、改进前后对比的内容不能一目了然的对应。8、P38研究结论不是全文总结,注意归纳结论。",0,0,0,0,1,1,0,1,-1,0,0,0,0,0 +878,《李前宽电影艺术研究》一文,从其电影作品的主题选择、影像风格人物塑造、作品的价值意义等方面对他的电影作品进行了较为全面的研究,提出了一些有价值意义的学术观点,将李前宽导演的创作个性和艺术表现风格做了较为准确的概括与提炼,在经过一轮修改之后,补充了李导演的电影艺术价值和对中国电影的贡献,在这两方面的补充研究提升了论文的学术价值,修改后文章整体有个较大改观;总体来看,文章结构合理、行文流畅、观点明确、学术规范较好,基本达到了硕士研究生学位论文水平。主要存在问题:1、作为学术型研究生毕业论文,体量不足;2、同样作为学位论文,理论运用尚缺,论文思辨性不足。 ,0,1,0,-1,0,0,0,1,1,0,1,0,-1,0 +834,作者对直流偏磁下Steinmetz损耗模型进行研究,对提高变压器铁心损耗的计算精度具有十分重要的意义。 作者在阅读大量国内外文献的基础上,对国内外考虑直流偏磁条件下变压器铁芯损耗的研究现状了综述,说明作者对相关文献和本课题的国内外研究现状有一定的了解。 论文取得了以下主要成果: 1. 采用爱泼斯坦方圈实验测量了有无、直流偏磁时取向硅钢片的磁特性和损耗特性,测量结果表明:直流偏磁下的磁滞回线发生偏移不再对称,直流偏磁下的损耗对于无直流偏磁下的损耗大大增加。 2. 对考虑直流偏磁磁条件下的Steinmetz损耗公式进行改进,引入一个考虑直流偏磁影响的变系数kdc,并采用表面响应模型对变系数kdc进行了数学拟合。 3. 基于有限元仿真商用软件MagNet,仿真计算了电力变压器直流偏磁磁场分布,并基于改进的Steinmetz损耗模型计算了铁心损耗大小。 论文引用的资料和数据可靠,结论正确可信,写作比较规范。 同意作者修改论文后参加答辩。,0,1,1,0,1,0,1,0,0,0,1,0,0,0 +2237,1.论文选题以酿酒酵母为模型探讨其抗衰老中草药的筛选及其相关分子机制,有明显的实用价值和理论探索意义;2.论文的实验思路基本清晰,方法可行,实验结果对同行有一定参考价值;3.从整篇论文看,作者已掌握了本专业比较扎实的基本理论和基本技能,论文撰写整体规范,单位量纲使用正确,图表绘制合理,达到了硕士学位论文的基本要求,同意修改后参加答辩。4.修改意见或建议:(1)摘要及结论过于笼统,宜增加数据支撑或说明;(2)在2.5部分,建议先文后图,先说明实验过程,结果如图XX,由图可以看出。。。,更利于阅读;(3)实验中大量篇幅筛查中草药水提物对酵母抗老化的效果,缺乏有效的成分分析和例证;(4)部分实验应有对照实验验证,以区分中草药水提物是营养作用还是抗老化作用,营养物的丰富同样可以延长酵母细胞的寿命。,0,1,-1,0,1,1,0,-1,1,-1,0,1,0,0 +2588,科学评估房地产企业内在价值,能够为该行业企业之间的兼并重组提供决策参考。论文改进了EVA方法,并将其应用于房地产企业价值评估中,通过在案例企业的价值评估中的应用,验证了该方法的优越性。论文选题有一定的应用价值,基本能够体现对实践的指导性;论文结构较合理,逻辑比较清晰,研究资料较详实,研究方法科学合理,文笔较流畅,格式基本规范。综合论文的写作情况看,作者掌握了本专业必要的基础理论和课题方面的知识,能利用所学知识解决课题中的实际问题,具有一定的科研工作能力和动手能力。论文的不足之处:第一,原有标题不太通顺,标题建议改为“基于改进EVA模型的房地产企业价值评估研究”或“改进EVA模型在房地产企业价值评估中的应用”;第二,格式方面,论文中存在个别标点符号使用错误,如P1第一段就漏掉了标点符号,类似的错误请作者仔细检查、修改;第三,EVA方法其实是收益法的一种,但论文在第三章中分析传统企业价值评估方法时写道“中国房地产企业的价值评估不宜采用收益法”,证明作者似乎对基本的概念、理论掌握还不够清楚;第四,论文在对EVA方法进行改进的一个重要方面是引入非财务指标系数,但作者没有对引入的政府政策、社会环境、人口、人力等指标给出清晰的界定和说明,而在后续的案例分析部分也没有清楚地交代出权重的由来,更没有对龙湖在各个非财务指标上面的得分进行交代,就得出了表5-17,整体感觉缺乏说服力,研究结论的可信度也不够高,另外表5-16是不是适用于所有房地产企业的?如果是,那么应该将该表放到第四章四中去;第五,论文在概述EVA模型时提到将使用两阶段EVA模型,但在后面的案例分析部分看不出使用了两极端EVA模型。,0,1,0,0,0,0,1,1,1,1,0,0,0,0 +1873,论文针对长杆类零件在安装使用过程中,磨损量过大会引起变形量增大,降低使用精度的问题,考虑到等离子束表面强化工艺的可控性与稳定性,将等离子束表面淬火自动化加工技术引用到长杆类零件表面强化工艺系统中。作者分析了长杆类工件等离子束表面强化工艺温度场的定义及热源模型,针对实际生产中淬火带重叠区域过大产生回火现象,造成淬火带硬度分布不均,不利于储存润滑油等问题,利用workbench建立仿真环境,通过模拟等离子束表面强化温度场分布,研究不同扫描速度、热流密度时淬火面温度分布规律,并假设淬火区域温度与硬化带分布相关,得出基于扫描速度、热流密度的硬化带宽度、硬化带深度分布曲线与全覆盖条件。针对淬火过程中长杆类零件因淬火面温升易产生热变形等问题,利用workbench建立仿真环境,模拟经等离子束表面强化的长杆类零件在x、y、z方向的变形分布,并进一步研究不同工艺参数对零件塑性变形及在x、y、z方向变形影响规律。分别利用多参数回归算法、BP神经网络算法进行拟合,得出基于长杆类零件表面强化工艺系统工艺参数预测模型,并对两种算法进行结合与优化预测模型,并运用RobotStudio搭建了工艺系统仿真工作站,仿真了自动化加工过程。 论文选题结合实际,研究结果可为基于等离子束表面强化的长杆类零件工艺研究表面强化技术研究提供一定的理论支持。作者研究思路清晰,具有一定的工作量,论文写作思路清晰,文笔通顺,图文尚规范。论文反映作者阅读了大量相关文献,说明作者在本学科已具有较好的专业理论基础,能够应用所学知识和通过阅读文献解决具体的工程问题,具有从事科研工作的能力,论文条理清楚、图表规范,认为已达到专业硕士论文水平,同意该同学参加答辩。,0,0,0,1,1,1,1,1,0,0,0,0,0,0 +265,该论文针对交流接触器状态监测中的不良数据提出相关数据挖掘方法,选题具有一定工程实际意义。论文调研了国内外在信号分析处理、数据挖掘及不良数据检测辨识等方面的研究情况,并结合小波阈值去噪与经验模态分解方法形成特征提取方法,改进关联规则Apriori算法形成多维关联规则算法,对实验数据引入k-means聚类算法离散化;运用形成的方法对实验数据进行关联分析,对不良数据进行检测与识别,论文具有一定工作量。但论文各章节对已有方法原理介绍偏多,而对论文创新点阐明较少,论文创新点需进一步完善与提炼;论文所列参考文献年代稍久;此外,论文行文部分段落欠缺流畅或存在语病,所引用或推导的部分公式、图表需进一步核对校正。,0,1,-1,1,0,0,-1,-1,0,0,0,-1,0,0 +734,为了削弱低速大转矩永磁同步电机转子偏心带来的影响和危害,论文提出了一种基于电流补偿的永磁电机转子偏心危害的抑制方法。论文的选题具有一定的理论研究意义和实用价值。作者阅读了大量的文献资料,对国内外相关研究动态进行了评述,研究方向较为明确。论文通过将定子绕组拆分为多个单元,并且各个单元独立控制,利用各单元绕组的直轴电流有效控制单元绕组对应位置的气隙磁场助磁或去磁程度,以达到削弱转子所受的不平衡磁拉力的目的。论文研究成果有一定的创新型,作者做了较为合理的仿真计算工作,表明作者已具备了较好的独立从事科学研究的能力,比较熟练的掌握了与课题相关的专业理论知识。论文撰写较为规范,得出的结果合理。,0,1,1,0,1,1,1,0,0,0,1,1,0,0 +134,本文选题没有达到硕士研究生论文的“具有一定创新成都的要求“,中国和英国的铜期货市场的制度比较的分析内容比较浅显,无法满足硕士毕业的学术水平。 通读全文,可以看出作者对本领域的学科知识掌握存在一定的不足,写作的防范性和逻辑性不强。 论文中第五章和第六章泛泛而谈,内容空洞,与前述3和4章根本无任何联系。 总之,论文”凑“的痕迹比较明显,不能说达到了硕士论文的毕业的要求。,0,0,0,0,-1,0,0,0,-1,0,0,0,0,0 +1156,本文提出永磁悬浮控制系统,建立系统动力学模型,推导扰动力与电流之间的数学关系。研究系统在不同控制方法下的准零功率特性,恒定角度控制与恒定气隙控制时系统电流消耗均较低,保证了系统稳定性。研究了系统在外加负载下角度与气隙的动态特性。根据PID控制原理和粒子群法,设计系统双调节控制器并优化控制器参数,进行系统抗外扰力仿真和实验。对比分析了恒定气隙控制、恒定角度控制、固定积分关系控制、永磁系统的双PD控制、随机积分控制,系统在外加负载下气隙和角度的权重关系。 本文的选题具有一定的理论和实践意义,研究方法较为先进,工作量充足,论文写作较为规范,达到硕士研究生的培养目标。,0,1,0,1,0,0,1,0,0,1,0,0,0,0 +1942,论文针对压电陶瓷具有复杂的非线性特性,对压电驱动式 AFM 的位移跟踪控制策略进行了设计研究,主要工作如下: 1. 分别设计PID纯反馈控制与单独前馈补偿控制、单独ADRC控制与ADRC前馈补偿控制,并对以上控制方法进行对比验证; 2. 引入BP网络进行优化,设计非线性BPNN-ADRC与前馈补偿型BPNN-ADRC,通过将其应用于原子力显微镜的控制系统进行仿真验证。 论文选题具有一定的理论意义和工程应用价值;作者已经了解和掌握压电陶瓷模型及位移跟踪控制策略等相关研究领域的现状;研究内容和方法设计总体上具有一定的合理性和科学性。同意修改后直接答辩。,0,0,1,0,0,0,0,0,0,1,0,0,0,0 +1555,论文《基于炭膜孔结构与亲水性有效调控油水分离性研究》,针对炭膜的特点与分离机理 ,提出基于孔结构与表面亲水性有效调控油水分离性能的研究,并通过多种改性方法对炭膜进行了亲水性以及孔结构的调控,最终应用于油水分离性能的研究。选题有所创新,具有一定的理论研究价值。论文的研究内容合理,研究方法合理,工作量充足。该论文表明作者具备基本的学术素养和一定的学术能力,符合硕士研究生应有的水平。,0,1,0,1,1,1,0,0,0,1,0,0,0,0 +576,论文以双Y型移30°双三相永磁同步电机为研究对象,对矢量控制算法进行了研究,针对电机驱动系统中存在的共模电压问题和模型预测控制进行了理论和仿真研究,论文选题具有一定的理论和实际应用价值。作者在大量阅读国内外相关文献的基础上,做出了如下的研究成果: 建立了空间矢量解耦后的双三相永磁同步电机数学模型,针对零矢量的使用会导致共模电压峰值电压高、变化次数多的问题,利用合成矢量代替零矢量,改进了四矢量SVPWM控制方法。并在此基础上,研究了利用三相解耦算法将六相逆变器分解到两个独立的三相逆变器然后分别进行控制的方法。论文研究了模型预测控制算法,利用合成矢量的方法降低了预测计算的复杂度。论文有一定的创新性。 论文结构完整,条理清晰,写作规范,逻辑较强。表明作者基本掌握了双三相永磁同步电机驱动系统的基本理论和控制方法,达到了硕士论文的要求,同意答辩,0,1,1,0,1,0,1,1,1,0,0,1,0,0 +385,论文采用TIG 电弧增材制造方法,研究了工艺参数和热处理条件对沉积层几何特征和沉积样件的力学性能的影响规律,研究具有重要的意义。所取得主要成果有: (1)TIG 电弧3D 打印TC4合金的最佳工艺参数为电弧电流I=160A、扫描速度Vm=8mm/s、送丝速度Vd=1.4m/min、搭接率40%。 (2)沉积态及正火处理后组织均由初生α相及少量β相组成;沉积态与正火处理比较,其组织主要由细长的初生α相与魏氏组织构成;当正火温度范围为800-900℃,初生针状α相的长度逐渐变短,向网篮组织转变。 (3)当TIG 电弧增材制造样件加热温度为850℃及保温时间为2h 后空冷热处理,其综合性能基本达到锻件标准要求。 论文研究工作量大,数据翔实,论文撰写流畅,达到了硕士毕业论文的要求。,0,1,0,1,0,0,0,1,0,0,0,0,0,0 +740,文章分析了视觉 SLAM 的系统框架,对前端、后端优化、建图和回环检测进行了阐述;对三种特征提取算法进行实时性的对比,根据提取的图像特征分别进行初次匹配和二次匹配;实现了基于 BA 算法的后端优化,通过 ICP 算法进行点云拼接得到局部三维地图;通过实验验证了加入回环检测机制提高了地图重建的准确性;搭建了机器人、视觉传感器等硬件环境、ROS的软件环境进行试验。选题具有较强的理论及试验意义,在视觉RGBD与SLAM结合特征的二次匹配及加入回环检测机制进行定位及地图构建方面有所创新,学科知识掌握全面,写作规范,层次鲜明,逻辑性强。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +120,本文首先对泥水盾构机静密封用O形密封圈进行建模,给出不同橡胶硬度下的接触应力与压缩率和流体压力之间的函数关系。选题工程意义较好,研制一台盾构机密封件耐磨试验平台,实现了橡胶密封圈在定速变压和定压变速条件下的摩擦磨损实验。给出针对不同流体压力下的橡胶密封圈最小压缩率范围。论文具有一定的创新性,学科知识掌握较好,写作规范性好。,0,1,0,0,1,0,1,0,0,0,0,1,0,0 +835,作者提交的硕士学位论文研究了直齿圆柱齿轮的齿面磨损对齿轮副传动系统非线性动态响应的影响,论文选题结合企业新技术开发的实际,研究工作对指导大型传动机械系统的安全设计与失效分析具有一定的工程应用价值。对于齿轮传动系统动力学问题,采用经典建模和简化方法描述齿面摩擦磨损是较好的应用;针对齿轮磨损故障模式中,计及混合弹流摩擦的非线性动态分析具有一定的参考意义。但是在齿轮传动分析上,传动承载是一个重要变量,主要集中于不同转速下主动轮的振动响应,作者并未给予相应解释。论文的主要工作存在较大问题,须作重大修改后重新审阅,才能答辩。,0,1,0,0,0,0,0,0,-1,-1,0,1,0,0 +594,论文在相关理论和文献分析的基础上通过建立计量模型研究了融资约束、高管股权激励与R&D效率的关系,并根据计量结果有针对性地提出建议。论文选题具有一定的理论和现实意义,全文结构较完整、逻辑较清晰、研究方法恰当、数据较翔实、文献资料较丰满,表述清楚、写作较规范,反映了作者较好地掌握了本学科知识,但论文也存在一定的问题,同意经过修改后参加论文答辩。,0,1,0,0,1,0,1,1,1,1,0,0,0,0 +2479,"该论文已基本达到硕士学位论文水平。论文的不足之处与有待商榷的问题:1.文中有些地方词序欠妥当或用词不够准确,语句欠通顺,如“如今我国电影著作权价值相关的评估研究还不够丰富”、“电影行业作为文化产业中的重要内容”、“我国早已成为全球电影最大市场”、、“对于制片方和发行方的那部分收入,如果不是同一家影视公司的话,其中属于发行方的,一般为5%-15%发行代理费还需要进行剔除,扣除之后即为制片人收入。”等。2.有些语句间缺乏紧密的逻辑性,如第1页倒数第10行~倒数第5行,又如“希望能完善对电影著作权的价值评估研究。提出本文的研究想法。对电影著作权的价值进行评估。”等3.论文第一章对研究意义的阐述过于泛化,不够明确和具体。4.如何判断某一电影是否带有IP改编因素?论文缺乏明确说明。5.论文“选取2016至2021年每年票房排名前20的国产电影作为样本数据”,但缺少对这些样本数据基本的描述性说明与分析。6.论文中说“《长津湖之水门桥》的著作权价值为141,740.00万元,最后与猫眼票房专业版数据对比,发现预测的评估结果具有一定合理性”猫眼票房专业版数据是多少?如何对比分析的?文章似乎缺少明确说明。7.第3章、第4章的内容稍显单薄,有些地方分析不够深入,建议进一步充实相关内容。8.结论部分缺少对研究结果的提炼和升华。9.文中有些地方有字词错误,如“且《长津湖之水门桥》作为《长津湖的》续作”、“合计5%+3%=8.3%”等。",0,0,0,0,0,0,0,-1,-1,0,0,0,0,0 +58,本课题以固体废弃物的检测为背景,建立了能够快速鉴别固体废物中 88 种半挥发性有机物(SVOCS)的QuEChERS-气质联用法, 可应用于典型固体废物中 SVOCs 的检测以及对 7 个现有标准的完善。得到了一系列创新的成果,选题属于科学发展前沿,研究工作具有理论意义和实用价值。在参考文献部分,论文作者引用大量的文献,掌握了本学科及相关领域的最新动态和研究进展,能充分概括、归纳出本学科、本研究方向发展的总体趋势、规律和待解决的问题。在论文中,作者建立了 GC-MS 分析方法。 完成了对色谱柱类型、 进样方式及时间、 进样口温度、 柱箱温度、溶剂延迟时间、传输线温度以及质谱参数的选择和优化。作者还建立了以 QuEChERS 方法为基础的前处理方法,并对方法进行了验证与应用。最后,作者建立了QuEChERS-气质联用同时测定固体废物中 88 种 SVOCs 的鉴别方法。以上这些结果都具有一定的创新性,为我国固体废物中有机污染物鉴别提供新的思路和技术支撑。论文写作层次清楚,条理分明,研究方案合理,推论科学正确,数据翔实合理,工作量饱满,反映出作者在本门学科上掌握坚实宽广的基础理论和系统深入的专门知识,具有独立从事科学研究工作的能力。根据国家学位有关规定,论文达到了硕士学位论文的要求,同意组织论文答辩委员会安排答辩。,0,1,1,1,1,1,1,0,0,1,0,1,0,0 +2848,"论文以某型甘蔗收割机输送器为研究对象,采用基于线性加权法的多工况拓扑优化、尺寸优化、刚柔耦合动力学仿真分析等方法对其进行轻量化分析研究。论文具有一定的实用价值,工作量较为饱满,条理较为清晰,达到硕士学位论文水平,但存在下列不足之处:1P18(2)过双侧深坑工况下,最大应力值大小为198MPa,应该是高于材料的许用应力196MPa,是否过大。同样,(4)右转向过坑工况应力最大值为202.7MPa也是大于许用应力。所以选用的优化前的结构明显不符合要求?2P21根据式(2-1)计算的频率32±5Hz,未除以2π。3P34图3-8和图3-9整体没看出共同性,最好添加细节对比图。4P36表3-3突然多出这么多部件,文中无部件分布图。第二章有限元分析建模时是否该种结构?如果是这种结构,中间拓扑优化的意义在哪里?直接尺寸优化就可以了。如果不是这种结构是哪种结构?文中未详细描述。",0,1,0,1,0,0,0,0,1,0,0,0,0,0 +936,论文对传统民歌《浏阳河》与改编民歌《又唱浏阳河》,展开了对比研究。内容涉及传统民歌与改编民歌的演唱对比分析,两首歌曲的演唱对比分析,最后阐述了改编民歌的时代价值。选题的研究对象来源于自己的音乐会演唱实践,选题符合学位要求,符合专业人才培养的基本要求。基于上一稿的评价意见,很遗憾文章逻辑层次没有修改,只是少许加重了结合研究方向的论述内容。结论部分依旧是阐述了改编民歌的时代价值。行文基本流畅,但是论文仍然有很大改进空间。,0,1,0,0,0,0,0,1,-1,0,0,0,0,0 +2557,"该文在既往工作的基础上,燃料电池混合动力系统进行建模并对其能量进行实时控制研究。首先,对燃料电池、超级电容以及电机等部件进行选型及参数选定;然后建立了燃料电池、超级电容、DC/DC变换器以及电机等部件的能量关系数学模型;该文主要提出了基于模糊控制策略和混合逻辑动态模型的实施能量管理策略。初步评审意见如下:1.论文能够理论联系实际,从解决工程实际关键问题入手,探讨燃料电池的能量管理问题,分析了燃料电池系统的基本性能参数与主要特性;利用了模糊控制和混合逻辑动态模型法解决面临的问题。2.模糊逻辑控制和逻辑动态模型法不依赖对象的精确数学模型,因此,此类算法的效果更需要对比现有研究成果,以证明控制策略的有效性。本文的对比研究局限于对比功能跟随控制或者PI控制等传统控制方法,缺乏横向对比现有研究成果,例如(不限于):金振华,欧阳明高,卢青春,等.燃料电池混合动力系统优化控制策略[J].清华大学学报:自然科学版,2009(2):4.。或者其他采用FLC或者MLD方法的燃料电池能量管理策略的研究成果。3.论文书写基本规范。但有部分表格格式需要调整,例如(不限于):第23页,基本等价关系律可以列表表示。当前采用分行撰写又未对齐,格式略显凌乱。第29页,第六行字符间隔因为公式原因造成过度拉伸,请调整。综上,论文具体工程方案设计思路新颖,采用的技术路线先进,工程难度适中,工作量饱满,说明作者在本学科已具有较扎实的专业理论基础,能够应用所学知识和通过阅读文献解决具体的工程问题,具有较强从事科研工作的能力。论文思路清晰,文笔通顺,图文规范。论文达到了硕士论文水平,同意该生修改后参加答辩。",0,0,0,1,1,1,1,0,1,0,0,0,0,0 +1571,论文采用一种新型的非线性方程组的求解方法—传输线法(TLM),研究传输线有限元法中线性方程组求解及算法实现,该方法在迭代过程中系数矩阵保持不变,大大减少执行时间。通过在电气设备电磁场计算中的应用,验证了该算法的有效性。 作者有针对性的解决实际突出问题,论文层次分明,思路清晰,推理基本正确,理论与实际需求相结合,工作量较饱满,反映了作者具有基本的科研素质和能力,达到了硕士论文水平,同意提交答辩。,0,0,0,1,0,1,0,0,1,1,0,0,0,0 +1041,1. 论文对于热轧调度领域的最新研究关注不够; 2. 论文存在多处语言不通顺之处; 3. 论文中所使用公式的正确性有待商榷,存在多处错误; 4. 论文中符号使用混乱; 5. 论文问题的创新点为考虑了主动丢单因素,但作者对于其在钢铁生产中的可实施性缺乏足够认识; 6. 英文摘要一塌糊涂; 7. 部分语句和图片重复使用多次。 综上,本人认为目前的论文质量实在没有办法进行答辩,希望作者进行仔细修改后再答辩。,0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +2657,论文将实物期权理论应用于市政基础设施PPP项目的价值评估,选题来源于实践,具有一定的理论意义和现实意义;能够综合运用相关的理论知识,理论联系实际,选择合适的研究方法;运用资料较丰富,研究较深入,工作量较饱满,结构较合理,层次较清楚,能反映一定的运用所学知识分析问题解决问题的能力。总体上达到了硕士论文水平,经必要修改后可以答辩。论文不足及需要修的地方:(1)对市政基础设施PPP项目实物期权的分析不深入,只是分析了基础设施PPP项目蕴含的期权特性,但是缺乏对具体是蕴含的何种实物期权的明确界定及说明,所以在运用二叉树期权定价模型评估所谓项目潜在价值时看不出来评估的是何种期权的价值。实物期权价值是蕴含在项目中管理柔性的价值,是未来的一种选择权的价值,论文将已完成的投资项目又直接作为实物期权计算的是何种期权的价值。(2)不少地方有错别字、表格不规范等问题。有近10处将“推导”写成了“推倒”、第32页“建和”、“政府成本向社会资本方”、第42页“在计算政府补助额是一并扣除”、第42-43页“市政基础设施运营期间风险影响多各方面,蕴含的不确定性因素多”,有一些表格格式不规范、无计量单位,如表5-5、表5-6、表5-8等,类似的问题还有不少。,0,1,0,1,1,1,-1,0,1,0,0,0,0,0 +1774,论文研究如何应用已经成熟的ABC分类法解决A公司的仓储系统优化问题,在理论层面没有任何贡献,在应用层面的贡献也仅限于解决了一个具体公司的具体问题,推广价值非常有限。论文写作的条理性、规范性、可读性尚可。作者应该更换研究题目、调整研究思路,必须至少在理论、方法、或者问题三个方面之一有创新或有新意才符合基本要求。,0,-1,0,0,0,0,1,1,1,0,0,-1,0,0 +2856,论文以顺应论为指导,对《汽车机电系统》的第五章英译汉翻译实践进行了总结合分析。论文结构清楚,文献资料引用较丰富,对翻译顺应论进行了研究并付诸实践,工作量饱满。但论文存在以下不足:1.该翻译实践项目未得到《汽车机电系统》作者的授权,论文也未提到具体的翻译要求,所以该实践似乎未做到有的放矢;2.论文个别地方显得文不对题,譬如1.2StructureoftheTask的内容是关于论文结构,而不是翻译任务的结构;2.2.1TimeSchedule是译中的一部分,应写翻译的进度安排,而不是论文写作的时间安排;例6、例7的分析与小标题顺应读者(尤其是论文提到的大学生读者)不相符合;3.案例分析每一小部分的第一段结合了顺应论,而其他部分的分析和顺应论关联性不大,论证不够有力;譬如例12~15、例19、28、32和4.2.3部分的案例分析;4.论文个别地方还存在语言错误(27、29页等)和不严谨的地方。譬如中英文摘要的个别内容不对应;第10页提到的YangHuiying(2012)在参考文献里未提及;4.1.3部分的内容涉及译者顺应原文本、顺应合格译者的要求,所以小标题应是“译者的顺应”,而不是“顺应译者”;5.个别地方的译文质量有待提高。譬如例8、10、12、30的翻译。综上,建议修改后答辩!,-1,0,1,1,0,0,0,0,1,0,0,0,0,0 +1321,该论文围绕个性化推荐技术中的信息超载问题,研究了基于机器学习的个性化推荐方法。针对数据预处理问题,提出了利用Relief 特征选择算法对数据属性的重要性进行分析。利用流形学习能有效处理非线性数据的特点,提出基于流行学习方法的数据降维处理方法,以减少模型训练时间并提升模型学习性能和效果。针对GBDT 参数选取困难的问题,利用贝叶斯优化对基于GBDT的个性化推荐模型的参数进行优化,以提高推荐模型的准确率。在MovieLens 电影数据集进行了实验测试,验证了推荐模型的有效性。 论文选题具有一定应用价值,研究具有一定的技术创新性,层次清晰,撰写比较规范,表明作者具有一定的科学技术研究能力。,0,1,0,0,0,1,0,0,1,0,0,1,0,0 +2100,永磁同步电机具有结构简单、运行可靠、形状尺寸灵活多样等优点,但受到恶劣环境和复杂的工作条件等因素影响,容易发生退磁故障,从而使电机性能下降。如果退磁严重的话,甚至会失去控制。论文基于电流信号图像化的永磁同步电机退磁故障分析具有一定的理论意义和实用价值。作者阅读了本研究方向的大量文献,了解了该学科及相关领域的发展和最新成果,归纳总结正确,研究方向明确。论文首先分析了永磁同步电机永磁体材料的退磁故障形成机理;其次提出用于电流信号图像化的转换方法,将电流信号数据转化为图像样本;最后搭建了永磁同步电机退磁故障实验平台,建立基于图像样本和卷积神经网络的诊断模型并进行了验证。论文体现作者具有坚实的基础理论和系统的专门知识;具备独立从事科研工作的能力;论文研究工作量较大。论文语言表达准确、层次较分明、文笔流畅、图表规范;逻辑性较强、较善于总结提炼。,0,0,0,1,1,1,1,1,0,0,0,0,0,0 +1789,论文以LC税务局为例,以平衡计分卡在该税务局绩效评价中的应用分析作为示范,把握目前政府部门绩效管理中的平衡计分卡应用实效。研究以政府绩效评价相关理论为基础,基于LC税务部门的实际绩效考核工作现状和问题为参考,研究新形势下,税务部门绩效评价改进的创新路径。 论文思路较清晰、立论正确、结构较合理、内容较丰富、论述比较深刻、逻辑性较强、语言基本流畅准确,对该领域国内外的研究成果较为熟悉,相关专业知识较为扎实,具有一定的解决实际问题的能力。,0,0,0,0,1,1,0,1,1,0,1,0,0,0 +1970,论文总结了铸造Al-Cu合金的热裂机制研究进展,提出了通过半固态重熔模拟合金凝固液膜并在设计凝固收缩应力检测装置的基础上,研究液膜应力与凝固温度的关系,判断合金的热裂倾向,并分析了重熔工艺对半固态组织的关系。 论文选题具有较好的理论和实用价值,作者对国内外相关研究进展有一定的掌握,论文有一定的工作量,作者表现了较好的专业理论基础和一定的独立从事科研工作的能力。,0,1,1,1,1,1,0,0,0,0,0,0,0,0 +1343,该论文研究了基于深度学习的基底细胞癌病理图像识别方法,具有一定的研究价值和应用价值。 该论文具体实现了皮肤癌病理图像预处理,研究设计了基于VGG-16的基底细胞癌识别方法,给出了对比实验及实验结果。设计实现了基于Inception-v3的基底细胞癌识别方法,完成了过拟合优化,给出了对比实验。 基本能够达到硕士学位论文水平。但论文技术上创新性不突出,建议按照评阅意见认真修改论文的所有不足后,参加硕士学位论文答辩。,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +1926,论文针对煤矿带式输送机采用异步电动机配合减速器带滚筒的驱动方式机械传动损耗大的问题,采用了一种利用外转子永磁同步电机直接驱动煤矿带式输送机的直驱方式。采用基于自抗扰技术与无传感器控制相结合的矢量控制策略方法,以提高系统效能。作者在论述基本理论的基础上,通过理论改进和 Matlab/Simulink 仿真进行了验证分析。 论文采用的虽然是通用熟知的方法,但作为一个专硕,仍然体现了作者较为踏实的科研方式,表明其掌握了一定的科研方法,具备了专业硕士应该具备的基本学术能力。,0,0,0,0,0,1,0,0,0,0,0,0,0,0 +965,论文摘 要部分第一段的最后一句“全剧采用“美通”式的唱法,并以口语化的咬字特点演唱,具有现代音乐剧的风格特点。”措辞立意是否具有可考性。 文章中存在诸多不通顺的语句,如“陆小曼相识徐志摩是在她结婚两年后,两人相识在陆小曼的演出”“这首歌曲是以独唱的形式演唱”“还需要表演者真正由内心贴切当时徐志摩的心理变化”““咏叹调”作为一种声乐体裁,是一种配有伴奏音乐的演唱形式,演唱难度系数较大”等等,通篇文章必须仔细检查纠错。 第三章第二节“气息控制”中出现了“声音的控制”,两者的关系却又没有进一步的阐述。,0,0,0,0,0,0,0,-1,-1,0,0,0,0,0 +2327,本文为案例研究论文,构建EVA模型对川大智胜公司进行价值评估。本文题目设计合理;相关概念界定清晰,引证资料丰富、准确,论证分析方法适当,语言表述较为准确、流畅,有一定层次结构,体例基本规范。体现作者具有相应的科研能力。符合本专业硕士研究生学位论文的相关要求。本文在写作中还存在些微不足:1,研究方法中的财务报表分析法不属于文献研究法?2,理论内容创新与后边所述的文字不符,应重新表述;3,第二章的相关概念与理论基础,界定不完整,人工智能企业呢?最好概念与理论分开写。,0,0,0,0,0,1,0,1,0,-1,0,0,0,0 +1794,论文以采用强迫油循环风冷却方式、多绕组一体化结构的车载牵引油浸式变压器为研究对象,研究了牵引油浸式变压器气相色谱分析技术和高压端子的电场仿真,并分析了两个工程案例。通过对承受电压最高的、最容易发生闪络、局部放电、电晕击穿的车载变压器高压套管建立有限元分析模型,得出套管中电场强度最大的位置和电场强度值,计算得到的结果对于车载牵引油浸式变压器高压套管的优化设计以及工艺的改进具有一定的参考价值。 论文选题有一定实际意义,作者对国内外研究动态进行了深入分析,研究方案可行,方法合理,结论正确,创新性一般。具备硕士论文水平。个别地方文字需要修改。,0,1,1,0,0,0,0,-1,0,1,1,-1,0,0 +2558,该文针对不同行驶工况无人驾驶车辆路径跟踪问题进行了研究,以期建立不同的路径跟踪策略,提高无人驾驶车辆在复杂路况下的精确跟踪能力。研究内容包括:(1)建立车辆动力学模型;(2)建立了干扰补偿的复合控制律;(3)设计了前馈+LQR状态反馈控制器;(4)设计了SSA-BP神经网络的预瞄时间调节器;(4)对理论研究结果进行了仿真验证。纵观全文,工作量饱满,写作尚可,有较明显的创新,达到硕士毕业要求,但以下方面需要进一步完善:(1)文献综述中缺少目前研究的不足部分,需要增加;(2)图3.1表示的预测控制原理表示不当,需要修改;图3.2也存在类似的问题;(3)不同工况对预测控制器性能分析需要更深入;(4)3.3.1需要把最后控制求解的表达式写出来;(5)3.3.3复合控制器中,需要把复合的依据表达清楚;(6)对仿真结果需要从多层面进行分析,需要修改;(7)类似图5-7,图在一页,图号在下一页,这样的排版不规范;(8)总结侧重写结论,而不是如何做;(9)参考文献学位论文偏多,外文文献偏少。,0,0,-1,1,0,0,-1,0,0,0,-1,1,0,0 +2790,论文选择知识产权型轻资产企业作为研究对象,采用案例研究法,利用EVA模型对案例公司奇虎360进行价值评估。此外,论文还选取B-S期权定价模型、FCFF模型与市场法的市盈率、市净率和市销率三个指标对奇虎360企业价值进行评估,将评估结果与EVA模型的评估结果进行对比分析。选题有较好的理论和现实意义,符合专业培养目标的要求。研究内容符合专业特点,研究资料比较翔实,评估方法也比较科学合理,研究结果具有一定的应用价值。阅读过程中有以下问题供思考:1.P14,(三)标题为:知识产权型轻资产企业价值评估的关注点,第一段内容主要是描述轻资产企业的不同类型,没有突出价值评估的关注点。2.P32,作者根据奇虎360披露的2017-2020年企业年报,得出所需的财务数据,2017-2020年期间,有好几项会计准则进行了修订,论文有没有考虑准则修订对财务数据的影响?,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +284,该生论文“基于在线评论的酒店服务提供商信誉评价模型研究”选题具有一定的理论意义和实用价值。论文运用扎根理论研究法、语义分析法、文献研究法和犹豫模糊集等方法,以携程网为例,构建了酒店服务提供商信誉评价的指标体系,文中利用考虑专家权重的犹豫模糊评价方法对酒店信誉进行对比评价,选取携程网站同类型且网站评分相同的两家酒店进行实例分析,对比两家酒店在总体信誉和信誉一级评价指标两方面的差异程度,并为酒店服务提供商提高自身信誉提出了对策建议。论文观点较明确、论据较充分、有一定的新意,所设计的基于在线评论的酒店服务提供商信誉评价指标体系合理。反映作者具有一定的专业理论基础知识和科研工作能力。 论文层次较清晰、结构较合理、表述较规范,基本达到了硕士学位论文的要求,可以组织答辩。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +304,该文选题是近年来受到法学界密切关注的问题,国内外学者展开了积极探索,取得了一些富有新意的成果,但仍然属于迫切需要理论创新的课题,难度较大。该文具备一定的资料基础,观点比较明确,结构比较合理,论述有一定深度,较为广泛地触及相关问题,能有意识地运用本学科的基础知识和基本理论分析问题并提出解决问题的建议。表述规范流畅。,0,1,1,0,1,1,0,0,1,0,0,0,1,0 +2553,该文以三江侗族刺绣做为研究对象,进行品牌设计研究,创建了品牌视觉识别系统,该选题在当下具有良好的现实意义和研究价值。该文逻辑较为合理,行文流畅;使用品牌定位知识理论和工具,研究方法和理论恰当;VI设计研究规范,能够体现侗族风格和现代审美的结合,可见作者具有良好的设计专业素养。该研究展开了较为深入的设计调研,能够较为真实地反映侗族刺绣艺术的特点和产业发展需求,问题提出合理。研究成果和结论能够从一定程度上解决问题。不足之处:1.国内外研究现状部分(尤其综述部分)不够充分,系统不够严密,导致以品牌设计作为侗绣的解决方案缺乏理论逻辑依据。2.第三章理论和方法部分与实践部分混合在一章,导致头轻脚重,建议分开。,0,1,-1,0,1,1,0,1,1,1,0,0,0,0 +2865,论文以银行不良资产为研究对象,探索了改进假设清算法在银行不良资产评估中的应用。论文的完成扩展了资产评估方法尤其是假设清算法,丰富了不良资产评估理论;同时有利于银行和资产管理机构更加合理的处置不良资产,对于有效地发挥出不良资产的价值性具有重要现实意义。但是,论文在知识运用和写作上还有待提高,具体表现在:(1)参考文献的引用,除非一些经典论文可引用早期的研究成果,应该多引用近期的研究论文。(2)结论建议部分无需加入参考文献。(3)对假设清算法的改进应该更多的针对金融不良资产的特点来进行。,0,0,-1,0,0,0,0,0,0,0,0,0,0,0 +1645,论文课题主要研究工作:(1)首先对光伏发电系统和大型光伏电站的基本结构进行研究对比,分析了光伏阵列的输出特性和逆变器的控制结构与控制策略,并对电站各部分进行选型,搭建容量为 5MW 的光伏电站并网仿真平台,通过仿真验证了大型光伏电站的可行性。(2)通过构建电网阻抗与 PCC 点耦合的弱电网模型后得知,逆变器的并联台数N 和电网阻抗Lg 会降低谐振频率和系统的稳定裕度。采用了一种有源电导谐振抑制方法,通过仿真验证该方法能够有效降低系统的输出电压电流谐波含量。(3)通过对同步发电机的基本原理进行分析,设计搭建了虚拟同步机仿真平台。 进一步验证了虚拟同步机的惯性优势和调频、调压能力。(4)深入分析光伏电源的动态特性,搭建了 PV 并联电容、带有附加控制的光伏虚拟同步机模型。通过仿真验证了所提策略可以充分实现光伏电源并网功能,解决输出功率的发散振荡问题,使系统继续稳定运行。其研究成果具有一定的学术性和一定的应用推广价值。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2813,论文以《基于EVA模型的电子商务企业价值评估》为选题,具有一定的现实性。论文在介绍相关概念和理论的基础上,构建了EVA的估值模型,然后以壹玖壹玖为案例对估值模型进行了应用分析,最后得出了结论、建议与不足。论文结构合理、思路清楚、结果比较合理。但在,对于EVA估值模型只通过壹玖壹玖一个案例来验证电子商务企业价值评估,缺乏普适性和推广性。建议:推广到对电子商务行业其他具有代表性的企业进行研究,以增强结论的信服力和评估方法推广应用价值。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2372,本文以新能源企业为研究对象,通过改进的DCF模型与实物期权法对其进行价值评估,并以盛新锂能为案例进行了综合分析,比较了两类价值评估方法的优劣势,结果表明本文改进后的评估模型更具优势。文章选题基本合理,论述清楚,具有一定的理论价值与实践价值,基本达到硕士学位论文水平,然而仍存在以下问题:1、研究背景与研究意义中不相关内容过多,建议删繁就简、突出主题。2、综述部分存在文献堆砌的问题,建议重新梳理现有文献。此外,文献评述层次不够清晰,所述问题不够凝练。3、建议完善技术路线图。4、第二章中建议增加“概念界定”。5、第三章所述内容与本文价值评估模型的构建有何联系?6、建议增加每章小结。7、总体而言,各章节内容安排不够合理,且存在较多与本文研究对象无关的内容。,0,1,-1,0,0,0,0,0,-1,0,0,0,0,0 +1300,该论文分别以城市废弃物(尿不湿、小龙虾壳)和农业废弃物(玉米芯)为原料通过一步煅烧的方法低成本制备固体碱催化剂,并将它们用于碳酸甘油酯的催化合成,并且三种废弃物衍生的固体碱催化剂具有较好的催化活性和循环利用性能。课题具有一定实用价值,论文作者对本课题的国内外研究现状进行了详细评述,论文所要解决问题的目的及意义明确, 论文的工作量较大。论文作者运用所掌握专业理论知识对实验结果进行了阐述,概念清晰,分析严谨,反映出作者具备独立从事科学研究的工作能力。论文结构合理,文字表达清楚、流畅,格式规范。同意该生参加硕士答辩,并建议授予其硕士学位。,0,0,0,1,0,1,1,1,1,0,0,0,0,0 +96,本文采用反相高效液相色谱的分析方法,通过优化色谱条件,建立了丙草胺含量的液相新型分析方法,考察了不同溶剂、流动相、流速、色谱柱、检测波长、柱温等对实验结果的影响,最终选取的色谱条件:色谱柱Inertsil CN-3 4.6mm×250mm、粒径5μm、流动相乙腈与水比为35:65、溶剂甲醇、检测波长 220nm、柱温 30℃、流速1.5mL/min;由此建立的高效液相分析方法可以实现丙草胺的定性和定量分析。本文以解决实际问题为研究对象,具有实际的应用价值,选题有意义;同时作者写作较规范有逻辑性,取得了一定的研究成果,有一定的创新性,也体现了作者具有专业理论知识,能够运用专业基础理论来分析科研中的实际问题,达到了硕士论文水平,同意答辩。,0,1,0,0,1,0,0,0,1,0,0,1,0,0 +1752,论文研究了不同应变速率和实验温度对TC4钛合金柱状试样和帽状试样在挤压方向(ED)和挤压径向(ERD)力学性能的影响,采用扫描电镜、光学显微镜和电子背散射衍射观察微观组织,并研究TC4钛合金在高速冲击载荷条件下的失效行为和各向异性。TC4钛合金广泛应用于我国航空航天结构件,研究其高速冲击载荷条件动态应力应变行为对于其使用具有重要意义,论文选题具有较好的理论价值和实用意义。论文条理较清楚,撰写较规范,分析和结论较合理,工作量适中,具有一定的创新性,反应出作者具有一定的科研基础和能力。,0,1,0,1,1,1,1,0,1,0,1,1,0,0 +159,本文针对大型离心压缩机组润滑油箱在实际使用过程中出现的变形问题,采用有限单元法对其刚度进行分析,并结合分析结果进行其结构改进,具有一定的实际应用价值。 论文分别对普通钢板、带加强筋钢板以及瓦楞板等三种不同形式的油箱壁板进行了应力与应变分析,总结了不同壁板形式油箱的优缺点和适用范围;研究了普通钢板的厚度、加强筋板的数量、加强筋板的厚度以及加强筋板的高度对油箱壁板刚度的影响;最后,以某润滑油油箱的改进设计为例对本文提出的方法进行了验证。论文思路较为清晰,分析过程合理,其结论对防止大型离心压缩机组润滑油箱变形具有一定实际意义。论文表明该同学掌握了较为坚实的基础理论和系统的专门知识,达到了硕士研究生的培养要求。,0,1,0,0,1,0,0,1,0,0,1,0,0,0 +648,论文针对真空泵用同步磁阻电机的设计展开研究,选题具有较好的研究价值。论文以研制一台1.9kW的真空泵用同步磁阻电机为目标,设计了一台1.9kW四极24槽的同步磁阻电机,分析了其转子磁障厚度、磁障位置、磁障层数、磁障占空比以及转子径向肋和切向肋对电机输出转矩的影响;根据设计出的同步磁阻电机的转子结构,对其进行了有限元仿真计算;建立了所设计真空泵用同步磁阻电机的三维温度场模型,分析了电机在额定工作状态下各部分的温度分布,并进一步对该电机的转子进行了应力场分析,结果表明所设计电机符合温度和机械性能要求。 论文写作质量好,工作量大,反映出作者具有良好的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意答辩。,0,1,0,1,1,1,1,0,0,0,1,0,0,0 +831,作为现代服务业的重要组成部分,快递业随着电子商务的发展而不断扩大。由于快速盈利模式简单,同质化程度高,依靠降低成本获取市场份额的扩张模式使得当前快递市场面临严峻的行业竞争。单一快递的利润正在下降,整个快递行业正面临转型升级。在快递企业快速扩张和低价竞争激烈的背景下,随着政府对快递业的政策支持,中国的民营快递公司纷纷上市。那么,快递企业在集中时间段内纷纷进入资本市场的原因是什么,为什么选择以借壳方式上市,借壳上市的借壳及上市后会面临怎样的风险。作者以“上海韵达货运有限责任公司借壳上市案例分析”为选题,具有重要的理论和实践意义。作者以我国民营快递企业中借壳上市成功的韵达货运为案例,结合行业背景和案例企业实际情况,分别从借壳上市动因、借壳模式、借壳后的效应及借壳上市的风险等方面进行分析,为行业内的其他企业提供经验借鉴。通过论文反映作者具有坚实的学科知识,具备独立从事科学研究能力。论文结构合理,逻辑清晰,写作规范。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2687,论文为了提高交通速度预测模型的精度,研究了基于时空注意力图神经网络的交通速度预测算法模型。针对交通速度预测存在的时空相关性问题,提出了一种基于图卷积的长短期记忆网络的交通速度预测模型(G-LSTM);针对在交通速度预测中,常被忽视的全局时空相关性和受外部因素影响的问题,论文在G-LSTM模型的基础上提出了一个基于时空注意力图神经网络(STA-GNN)的交通速度预测模型。该论文的选题具有实用性,具有一定的应用前景,论文运用理论知识和实验手段贴合实际情况,在预测方法方面结合了较有优势的神经网络,论文条理清晰,能够达到硕士学位论文水平,但该论文还存在以下问题:1、摘要(3)中的ST-AGTCN是否是STA-GNN?ST-AGTCN模块起什么作用?和STA-GNN是什么关系?请核实。2、论文部分格式不规范,页眉标题未居中,有些图表与图下方(表上方)标题分页,如图2-8,图3-7,图3-9,表4-7等均存在类似问题。3、关键词有个“外部因素”,是否恰当?4、1.2.2中讨论了四种模型,未指出模型存在什么不足,未突出所选择模型的优势。5、2.3节(2)中“如图2-5”应为“图2-6”。6、2.3节中建议增加(3)空洞因果卷积。7、3.4节有句话是“图3-2中显示了PEMS数据平台”,这里应该为“图3-6”。8、3.4节“本实验将70%的数据作为训练集,20%的数据作为测试集...”划分依据是什么?9、3.4.2模型参数设置描述较为复杂,建议最后增加表格进行说明。10、3.4.4对比实验可考虑增加G-LSTM模型和包含时空两种维度模型的对比,以此突出在同等实验下,该论文模型的优越性11、1.2节中“预测模型需要具备......等保证”这句话不通顺,希望再仔细改正一下文章中存在的类似低级错误。12、第四章对比实验中的其他几种模型均没有考虑外部因素的影响,可考虑增加包含外部因素影响的模型进行对比,进一步突出本文模型的优越性。,0,0,0,0,1,0,-1,0,0,0,0,0,0,0 +1440,该文介绍了圆筒形和平板形开关磁阻电机的拓扑结构,根据各结构磁路特性阐述其制造加工优缺点。推导了基于平板形直线开关磁阻电机发电过程中关键参数的解析方程。建立了直线开关磁阻电机三维有限元模型并仿真,分别对比小电流、饱和电流下二维计算结果,验证在一定程度下直线电机的二维仿真模型可代替计算点繁多的三维结构。在二维有限元模型的基础上,提出基于模拟退火算法、响应面法、单参数扫描法的总优化流程框图,采用熵值法计算确定多目标函数和灵敏度指标的比例权重,完成结构参数的灵敏度等级分层并进行各层次下的优化分析,保证优化时效的同时充分考虑参数之间的交互作用。采用二维有限元法针对优化后的电机进行了计算和分析,验证了所提优化方法用于电机设计的有效性。 该文的选题具有较高的理论意义,结果具有一定的参考价值,文章显示该生做了大量的研究工作,具有一定的工作能力,掌握了一定的科学理论知识。基本达到了硕士水平,经导师监督认真修改后可以进行答辩。,0,1,0,1,1,1,0,0,0,0,1,0,0,0 +2564,该学位论文围绕石墨烯作为增强体应用于银基电接触材料开展了相关基础研究,选题具有一定的理论和实用价值,基本掌握了国内外动态,也取得了一定的研究成果,反映出作者具有一定的科研工作能力。但还存在以下一些问题需要进行修改:1摘要中第1段引入主题有些生硬,表述不够清楚;同时摘要中最好有关于研究目的、研究方法的表述,而不是简单地罗列出结论,另外英文摘要中段首空格不一致、不规范。②目录中有些章节的三级标题过多,能否适当删减;参考文献写的是英文?③论文正文中存在不规范写作问题,比如第5页最后一句;图3-4b的英文;公式3-1;图4-1和4-2横坐标的书写;参考文献9和81等。④图1-2中文字看不清楚;正文中1.7部分直接列出了研究所得的结果,似乎不太合适?⑤在银-石墨烯复合镀层中,银和石墨烯的比例是如何确定的,文中有关于C的元素含量达13.75wt%的表述,但在XRD结果中却未观察到有石墨烯结构的存在,是否说明石墨烯的结构已经被破坏了呢?,0,1,0,0,0,1,-1,-1,0,0,0,0,0,0 +816,针对传统切削工艺存在的一些具体问题,本文采用超薄金刚石砂轮切割片作为刀具研究复合材料精密加工的方法。本文既有理论研究部分,又有较多的实验验证。以几个重要指标作为标准,设计了不同的工况条件,给出切割加工的最优方案。本文内容丰富,但规范性有待提高。比如,英文摘要第二句话明显翻译的不通顺,参考文献部分,作者姓名有的全部字母采用大写,有的仅首字母大写。综合评价,本文是一篇水平良好的学位论文。,0,0,0,1,0,0,-1,0,0,0,0,0,0,0 +2263,本论文将膜处理技术与微生物固定化相结合,采用荷正电的壳聚糖纳滤膜固定带负电的、具有除锰活性的微生物,通过壳聚糖与微生物的协同作用提高除锰性能。论文选题具有较大的实际应用价值和理论研究意义。整个论文工作系统、完整,工作量饱满,论文撰写思路清晰、逻辑性强,能较好的对实验结果进行讨论分析。论文工作体现出作者具有较强的实践动手能力和专业理论基础,达到研究生培养标准。建议修改后参加答辩。论文存在的不足之处如下:1.目录过于简化,以第三章为例,这个目录跟没写也差不多,看完目录不知道到底做了什么。目录最好写到三级标题,比如结果与讨论部分,具体做了哪些方面的工作,最好在目录中写出来,让读者一目了然。2.图2-2随着PEI浓度的增大,水通量不断增大,点线图上没有出现拐点,作者在文中的解释是“当PEI的浓度超过2.00wt%时,成膜易结块”,这个解释缺少必要的数据支撑。3.文中多个地方出现别字、重复字、多字等问题,请仔细通读文字部分,予以订正。4.图2-4中,只有三个数据点来确定GA的最佳浓度,数据量不足,且三个浓度值对应的水通量差别也不算太大,因此浓度值选取间隔也值得商榷。5.图2-7中英文标注的是Figure2-11.6.第17页,“且表面较为粗糙,因此不利于膜的分离。”,表面粗糙与是否容易分离有什么关系?表面粗糙是导致不易分离的原因吗?7.图2-13c中比例尺为10微米,如何得到孔的直径约为1-2nm的结论。8.第22页,“添加的CEL质量分数由50%增加到70%时,纯水通量也由25.92L/(m2·h)上升到39.59L/(m2·h)。”这句话的意思和图2-14对不上。另外,图2-14也仅有三个数据点,且呈现出单方向变化。图2-15存在类似问题。9.图3-1中FTIR纵坐标不要标注数据,多条曲线在一个图中,标注数据已经没有意义。10.图3-2存在背景颜色,图3-4及以后相关图形亦是如此,最好去掉。,0,1,0,1,0,0,0,-1,1,0,0,0,0,0 +1735,论文选题有一定的现实意义,能够围绕该选题进行文献梳理,围绕相关领域发展现状进行归纳和总结;能够围绕案例公司作业成本法应用问题展开分析,论文结论对案例公司及同行业其他医疗机构具有一定的参考价值;论文体现作者对该专业领域知识有一定的系统性理解;论文结合实际案例进行了较为有益的探索,并给出解决方案,得出明确结论;论文体现一定工作量,论文结构较为完整,结构清晰;文字表述较为流畅。,0,1,1,1,0,0,0,1,1,0,1,1,0,0 +2755,论文选题具有一定前瞻性,能够准确把握该领域研究动态,语言表述不够精炼,研究方法基本合理,理论研究深度不够,未达到硕士学位论文水平。主要存在如下问题:1.论文将轻骨料混凝土作为文章的创新点,缺少对废弃砖渣掺量和混凝土质量内部联系的研究;2.全文公式需居中处理,编号右侧对齐,公式(2-2)、(2-3)可合为一个式子;3.实验方法过于常规,试验结果分析缺乏创新性,不应直接给出测试结果,应给出加载过程曲线;4.请给出分别进行轴心抗压强度实验和立方体抗压强度试验的目的;5.第四章干缩变形属于力学性能,不应放在耐久性研究里面,将耐久性研究和微细观研究放在一章也不是十分合理;6.微观分析过于简单,缺乏深层次的机理分析,对轻质混凝土有何意义?7.第五章可行性研究内容与所申请的学科领域关联性较弱;8.文章理论分析深度不够,未达到硕士论文要求。,0,1,0,0,0,0,-1,-1,1,0,-1,-1,-1,0 +571,论文以某重型清障救援车行驶状态下和托牵状态下的操纵稳定性为研究对象,通过车辆动力学仿真软件TruckSim对该款清障车进行建模以及模型的验证与操纵稳定性研究,了你主要研究工作有: (1)建立车辆仿真模型,介绍各个子系统的建模方式和建模原理。结合标准试验方法,进行实车试验,通过实车数据与仿真数据对比,验证了仿真模型的合理性。 (2)求解不同弯道半径下车辆的临界车速,将数学模型与仿真模型并对比分析,仿真结果更加合理。 (3)从开环评价和闭环评价分析,选取转向盘转角阶跃输入试验和转向轻便性试验,研究质心高度和质心的纵向位置的影响。 (4))选取半挂车作为被拖事故车,参照牵引车挂车相关标准法规,建半挂车的动力学模型及仿真试验,分析不同速度下清障车和被托牵的半挂车的稳定性。 论文写作规范,结构合理,论文基本达到硕士学位论文要求。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +302,该文选题是传播法学领域的备受瞩目、难度较大的课题,受到中外学者广泛持续的关注,选题意义十分突出。该文具有一定的资料基础,观点明确,对本学科基本知识和基础理论的了解和运用情况较好,对该文涉及的传播现象的描述符合实际,对法律问题的论述有一定深度,能自觉地站在完善中国法治的角度展开论述,表述较规范、流畅。,0,1,0,0,1,0,0,1,1,0,0,0,1,0 +21,《微电网小扰动稳定性研究》的硕士论文,在广泛查阅国内外相关研究文献的基础上,针对微电网(分布式能源孤岛系统)小扰动稳定性分析进行了较为深入的研究工作。建立了微电网各系统数学模型,进行了各微源的模型构建与运行特性仿真,验证了所采用数学模型的准确性;研究系统小扰动稳定性分析模型,对各分布式电源状态空间进行了定量的数学分析,对微电网特征值的典型分布情况进行了仿真分析;构建了微电网稳定性评价体系,基于工程实例进行了案例仿真研究。 论文选题具有较好的应用和科研价值;阅读资料和相关文献量广泛,综合分析良好,了解该领域国内外学术动态,对国内外该选题及相关领域发展现状的归纳和总结情况比较充实和客观;论文引用相关材料充分可靠;论文写作过程有理论分析和仿真验证,逻辑清晰,理论分析正确,文字简洁流畅,能很好地将理论运用到实践中并独立完成论文工作,反映出作者掌握了较深厚的基础理论和专门知识;论文达到了工学硕士论文的要求。,0,1,1,0,1,0,0,1,1,1,0,0,0,0 +684,热电联合是提升微网可再生能源消纳及电网稳定的有效途径,研究具有一定的理论和实际应用价值。论文围绕热电联合微网协调运行策略展开研究,首先分析了热电联合微网系统的运行机理及分布式电源的原理及输出特性,建立了热电联合系统潮流模型,对计算数据进行分析并与传统的模型进行对比。根据实例建立了热电联合微网经济模型,结合当地可再生能源的预测功率及电网电价,分析了不同方式下的经济性与能源利用率。 论文理论依据充分,方法可行,结果可信,格式规范,工作量适中,符合硕士论文要求。,0,1,0,1,0,0,1,0,0,1,1,0,0,0 +2476,该论文研究小组工作介入随迁儿童的阅读能力问题,选题具有一定的理论与实践意义。该论文能够较系统地梳理相关的研究文献,并能够在评述相关研究的基础上较清楚地明确研究问题。研究论文写作较为规范,结构较为完整,逻辑较为清楚,资料较为详实,观点较为明确,小组实务过程的呈现较为完整。主要不足及建议:1.文献综述部分缺少社会工作介入随迁儿童的相关研究,建议进行修改;2.研究方法中文献法运用得不恰当,论文中运用的方法只是文献综述,不能称之为文献法,建议删除;3.文中有错别字,建议认真阅读进行修改;4.文中选取三、四年级的随迁儿童,但是没有对两个年级儿童本身由于年级不同导致阅读能力差异的分析,建议修改。,0,1,1,0,0,0,1,-1,1,-1,0,0,0,0 +3043,总体而论,《配有独立辅助控制装置的自动驾驶车辆》这篇英译汉实践报告,基本满足了专业硕士论文规定的各项要求,准予通过。该文作者选择的语料突出应用性技术特色,具有很强的实践价值,尤其是在当今自动车辆日益增多的汽车市场环境下,这类的汽车英语文本翻译更显得越发有必要性。就报告本身而论,作者的英语语言表达能力较好,说明阐释清晰流畅。文章的整体布局结构合理,主体部分凸显。特别值得肯定的是作者对于卡特福德的翻译转换理论及相关理论文献掌握较好,文中的案例提供量充足,分析解析也具有一定的理据。只是在研究方法上流于一般,这点从参考文献提供的信息,便可知在此之前已有现成的模板可套用。但是不可否认作者始终围绕“转换”为中心点,展开了主题突出的侧重报告,工作量十分饱满。建议修改:1)文本来源没有明确说明;2)摘要写作部分内在逻辑经不起推敲;3)目录中abstract下面的contents可省略;4)taskdescription标题下的信息概述不到位;5)在supplementarymaterial中没有提供平行文本资料;6)案例6和案例8的汉语译文有待再斟酌。,0,1,0,1,1,0,0,1,1,-1,0,0,0,0 +2977,文章以基于异构数据的股价预测以及碳中和板块等为研究对象,选题具有一定的现实意义。文章研究架构合理,逻辑主线清晰,文献综述相对全面。文章在实证部分,综合运用卷积神经网络、循环神经网络、Bert模型等方法,在对财经文本数据处理基础上,对于股价波动预测进行了综合性、多维度的定量研究。纵观全文,对于数据、图、表等的运用比较全面,体现了较为认真的研究态度和丰富的工作量。研究结论也比较聚焦,具有一定的针对性。稍感不足的是,论文对于政策建议的阐释,存在缺失,建议酌情增加,以提升文章的完整性。综上,论文写作质量优秀,符合硕士论文要求,可在适当修改基础上予以答辩。,0,1,1,1,0,0,0,0,1,0,-1,0,0,0 +2225,1.“基于Sinobrand模型对青岛海尔品牌价值评估”和“修正Sinbobrand模型、并用青岛海尔品牌为案例的评估结果检验”,这两个看似写相同内容,但是内在逻辑和最终走向是不一致的。显然作者没有注意到这一点,因此题目与内容之间并不非常契合。而且行文也是摇摆的。2.文献综述水平较差,缺少重点文献和关键文献。3.“评估结果与权威机构的评估结果较为相近,证明了最终结果的准确性,同时也证明了改进后Sinobrand评估方法的合理性和可行性。”逻辑不通。接下来的原因分析容易导出本研究及模型改进并无意义的结论。4.既然会提到“资产评估”作为一个行业,并试图表明本论文确实属于行业意义上的资产评估领域,那么为什么没有任何地方提到无形资产评估准则及商标资产评估指导意见呢?5.有很多错别字。且abstract有很多错误。,0,0,-1,0,0,0,-1,0,-1,0,0,0,0,0 +3008,在本论文中,作者为提高自由曲面/圆形零件的检测精度和检测效率,对三坐标测量机检测技术、自由曲面形状误差和圆度误差评价等开展了模拟仿真与实验验证研究。课题研究具有一定的工程应用价值与理论深度,研究方法得当,能够体现较好的科研能力,研究结果具有一定的创新性,论文写作具有逻辑性、符合规范、格式基本正确。论文存在以下需要认真修改的问题:(1)绪论部分,文献的综述与课题研究内容之间的关系需加强,即需要引出课题研究的必要性;(2)对仿真模拟结果、实验验证结果(第3章、第4章、第5章)的讨论不充分,摘要、结论部分应该有结果的定量呈现;(3)论文写作方面,存在不规范问题,如1000mm/min、15mm等,数字与单位间应该有空格,请通篇检查并修改;(4)部分参考文献的格式不规范。,0,1,0,0,0,1,1,0,1,1,-1,1,0,0 +3063,"作者在《某品牌随车起重机操作说明与保养手册》汉语无主句翻译实践报告中将交际翻译理论应用到无主句的翻译,是对汽车工程技术翻译的一次有益尝试。选题具有校本特色,具有一定的实践意义。但存在着以下值得商榷的地方:1.对于一份翻译实践报告,要将一些翻译前的事项交待清楚,使读者能够感受到这是一份真实的实践任务,是一份作者参与完成的实践报告,在这个方面作者并没有交待清楚。例如:该手册的编者是谁,手册共分几章,分别是什么内容。该手册的翻译任务是作者翻译了整本《某品牌随车起重机操作说明与保养手册》,还是翻译了其中的几章?是团队翻译还是个人翻译?如果是团队翻译,任务的分配又是如何分配的?作者仅仅只用“However,amongthetranslationtasksissuedbythecompanybefore,therewere50,000wordsoftranslationtaskstotally”做了简单表述。在附录中也没有任何章节的表述。作者的翻译schedule是如何安排的,在翻译之前有没有准备paralleltext等等,如果在这些细节方面完善,就会使得翻译实践更加真实,更加完善。2.交际翻译理论在例子的使用与论证略显薄弱,论证与阐述力度不够。3.参考文献的格式使用混乱,请严格按照要求进行撰写。例如:[28]连淑能.《英汉对比研究》[M].北京:高等教育出版社,1993.[34]王力.《中国现代语法》[M].上海:商务印书馆,2011.[46]张中行.非主谓句[M].上海:上海教育出版社,1984:37",0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +1184,本文以ZN建筑公司为研究对象,依据项目成本控制的相关理论,综述了国内外相关研究成果和文献资料,先后对ZN建筑公司施工项目成本控制的问题及原因进行分析,运用挣值法设计了ZN建筑公司H项目施工成本体系与应用流程,最后提出了相应的保障措施,提升了ZN建筑公司H项目施工成本控制水平。 综上所述,论文选题具有一定理论研究意义和实践应用价值,研究方向明确,方法科学,工作量饱满,数据资料丰富详实,文献引述规范,语言流畅,逻辑结构合理,结论正确。达到了学位条例规定的硕士学位论文水平,同意进行论文答辩。,0,1,0,1,0,0,1,1,1,1,1,0,0,0 +1900,论文针对钢板深表面缺陷的交变电磁场检测技术开展研究,选题具有一定的理论研究意义和工程应用价值。研究工作主要包括U型检测探头在钢板结构中应用的有限元建模和不同深度裂纹的检测实验验证。仿真中分析了激励频率、线圈匝数、提离值和缺陷深度等对检测结果的影响,对检测参数的研究比较系统,但缺乏对检测参数如何选择的结论;实验中分析了裂纹深度对响应幅值的影响,但仅有裂纹深度的研究,对仿真结果规律的验证不足。总体上,论文的创新性和工作量一般。论文的撰写基本规范,文献综述较为全面,整体结构安排较为合理。研究工作表明作者已掌握了本学科的基础理论和专业知识,能够独立从事科研工作。,0,0,1,-1,1,1,1,0,1,0,0,-1,0,0 +1360,该论文以金融科技为视角,对商业银行X效率进行了界定,选择金融科技投入影响下的人均劳动生产率、经营管理费用率、固定资产收益率以及高学历人才占比来作为影响因素对我国上市银行X效率进行了实证分析。论文选题有一定的现实意义,论文格式规范,思路清晰,文献梳理较为清晰,其研究成果具有一定的价值,论证充分,基本达到硕士学位论文水平。,0,1,1,0,0,0,1,0,1,0,0,1,0,0 +754,"物联网是一个基于互联网、传统电信网等信息承载体,让所有能够被独立寻址的普通物理对象实现互联互通的网络,它具有普通对象设备化、自治终端互联化和普适服务智能化等重要特征。基于互联网,利用RFID、无线数据通信等技术构造的物联网,物品(商品)能够彼此进行“交流”,而无需人的干预,其实质是利用射频自动识别(RFID)技术,通过计算机互联网实现物品(商品)的自动识别和信息的互联与共享。因此研究通过射频识别(RFID)、红外感应器、全球定位系统、激光扫描器等信息传感设备,按约定的协议,把任何物品与互联网相连接,进行信息交换和通信,以实现对物品的智能化识别、定位、跟踪、监控和管理的物联网具有重要的理论意义和实际应用价值。论文将物联网中的先进技术使用在公司实验室的管理中,不仅可以对实验室进行智能化管理,能大幅度地提高实验室管理的效率,使得对实验室的管理更加规范化、科学化,使人们的工作环境变得更加高效、便利、舒适。取得了一些有意义的研究成果: 1. 采用ZigBee技术组网,使用红外技术对实验室座位进行实时监测; 2. 利用RFID及改进的RSSI定位算法实时监控实验室的实验设备; 3. 将RFID和红外技术采集到的数据进行清洗、分析、记录和存储,较为准确地实现对指定场所目标的实时监测。 此外作者还对提出的实验室管理系统进行了系统测试。论文内容较为丰富、条理比较清晰、结构较为完整,图表规范,反映作者在本领域具有一定的基础理论知识和基本具备独立从事科学研究的能力, 基本达到硕士学位论文要求, 建议修改后提交答辩。",0,0,0,1,1,1,1,1,0,0,0,0,0,0 +2131,在硕士学位论文中,论文作者应通过叙述着重体现自己的研究思路、方法、工作量及创新性,以此体现论文作者的学术水平。但是,本文的通篇论述多为对已有技术、已有软硬件平台的介绍性描述,并未对自己的工作内容进行系统性的说明,工作量也就无从体现。例如,第一章绪论中并未对论文的主要工作做出归纳性说明,第二章为相关技术介绍,第三章对ORB、Dijkstra,DWA等算法思想及其实现过程进行了描述,并未对作者声明的基于认知地图的类脑导航方法进行系统性的说明及改进分析,也未有相关的算法对照实验,第四章为导航系统的软硬件介绍,第五章为实验介绍,但其中所描述的实验过于简略,也无法支撑作者自己的工作内容。 综上,该论文体现出的工作量过小,此外文中还存在大量的语句及段落间的逻辑叙述问题,未达到硕士学位论文答辩的要求。,0,0,0,-1,0,0,0,0,-1,0,0,0,0,0 +1882,论文针对大型公共建筑提出冷源系统运行的历史数据建立了中央空调冷源系统的能效比数学模型,并分别采用BP 神经网络和极限学习机对选取冷源系统属性数据和冷源系统运行能效比进行训练,并建立相应的预测模型。通过对实时的冷源系统运行能效比进行预测,并与预测模型进行对比,分析出该中央空调冷源系统的 COPsmin,并进行实时对比,分析冷水机组 COP、冷冻水泵 ECR-a 和冷却水泵 ECR-a 及其预测值,推断可能出现的问题并给出建议措施。 论文选题具有较好的实用价值,文献综述较为全面反映了相应的研究程度,研究成果可应用于实际工程,论文条理较为清晰,写作规范,反映了作者具有一定的独立从事科研的能力,基本达到了硕士论文的水平,建议修改后答辩。,0,1,1,0,0,1,1,0,1,0,1,0,0,0 +2953,"通过对土方机械作业时的动作进行分类与识别,有助于推动土方机械作业监控智能化的发展。论文利用深度学习方法对土方机械视频动作的分类进行研究,选题具有一定理论意义和实用价值。论文首先收集建立了土方机械作业动作数据集,并利用几何变换和颜色变换等方法进行数据增强,提出了注意力机制结合3D残差网络的土方机械视频动作识别算法。论文反映作者阅读了相关文献,对课题的研究动态及本学科领域相关知识有一定了解,具有一定的文献分析和综述能力。论文运用的理论知识和研究方法符合实际情况,采用的技术路线合理,说明作者在本学科具有一定的基础理论和专业知识,掌握了基本的研究方法和技能,能够应用所学知识解决课题中的实际问题,具有一定的独立从事科研工作的能力。论文中有的地方语句不通顺,如P7“通过远程监控土方机械的作业状态较为可取的”,P25“网络参数也大大更大”,P58“与其前就几层”;存在错别字,如P20“然后在搜索其中有关前景物体运动的信息”中“在”应为“再”,P21“全局特征可以描述视频整体地运动情况”中“地”应为“的”,P35“Z-Sorce”应为“Z-Score”,P38和P39“运输侧”应为“运输车”,P48“根据输入调正”中“调正”应为“调整”;有的地方不正确,如P14“输入的图像与二维卷积进行互相关运算”中“二维卷积”应为“二维卷积核”,P15“填充和步幅”中输出形状的计算错误。有的地方描述不清,如“2.3.2训练机制”中称“数据增强是避免过拟合常用的方法”,3.3.3又称对土方机械视频数据进行增强降低了网络出现欠拟合的可能。是否矛盾?P35“数据集预处理”中对原始320*240的图像“随机裁剪”成112*112的图像,如何保证“随机裁剪”不会将挖掘机和运输车等ROI裁剪掉?P36“数据变换”中“对视频图像的(R,G,B)三通道像素分别减去(90,98,102)作为网络输入图像的像素”,减去(90,98,102)的依据是什么?如何证明其有效性?第3章实验中测试集是否相同?按3.5.1实验设置,两个测试集是不同的,如果测试集不同,对比是否有意义?P39“挖掘机和运输侧作业场景的动作识别率提升了3.7个百分点”,“挖掘机”和“运输车”二者都提升了3.7个百分点?5.4.5中“把测试集划分为有背景运动和背景没有运动两类”,这两类的样本数分别是多少?论文不够严谨,很多地方不一致,如图2-1中Conv2的通道数为256,但在P14中的描述为128;根据P28描述,运输车卸料视频=46+40+80=166,与表3-1中146不符;P31“对图像进行几何变换”部分文字描述与图3-7不一致;P49公式4-2中A1为平均池化,公式4-3中A2为最大池化,图4-10与公式描述不符;根据表3-2知增强后的视频数为214+222+230+224+211=1101,而由5.1“实验环境”描述,知:训练集+验证集+测试集=702+178+222=1102,二者不一致;本文算法的准确率在表5-2为81.1%,在表5-3为81.2%,前后不一致。此外,有些公式中的符号未作解释和说明,部分参考文献标注格式不规范,信息不完整。",0,1,0,0,1,1,-1,0,0,0,0,0,0,0 +3046,"总体来看,本文选题来源于实践,体现了应用性,作者能够综合运用所学知识解决实际问题,论证较为充分,具有一定的应用价值。本文撰写逻辑较为清晰,层次较为分明,形式基本规范,达到了硕士学位论文水平,但存在一下不足:1.某些地方语言表达欠准确,仍需进一步改进,例如:(1)p5,第三段第一句话,“本文分为六个章节”改为“本文分为六个章”。(2)小标题“2.2.2无偏灰色预测UGM(1,1)模型”与该小标题下边第一行“UGM(1,1)模型(无偏灰色预测模型)”表述不一致,通过本小节的内容来看“无偏灰色预测模型”与“UGM(1,1)模型”应该是一回事,而“2.2.2无偏灰色预测UGM(1,1)模型”看起来以为“无偏灰色预测UGM(1,1)模型”是一个整体,表述与本节的意思是不一样的,建议统一为“无偏灰色预测模型(UGM(1,1)模型)”,或者二者分开单独使用。类似这样的问题还有,比如“2.2.1经典灰色预测GM(1,1)模型”。(3)小标题“2.2.3新陈代谢灰色预测模型与新信息灰色预测模型”的表述也不准确,本小节主要是“新陈代谢GM(1,1)模型与新信息GM(1,1)模型”,而4.1小节的“新陈代谢UGM(1,1)模型与新信息UGM(1,1)模型”也是新陈代谢灰色预测模型与新信息灰色预测模型,所以本小节标题“2.2.3新陈代谢灰色预测模型与新信息灰色预测模型”的表述显得有些大,建议更改为“新陈代谢GM(1,1)模型与新信息GM(1,1)模型”,以示与4.1小节的“新陈代谢UGM(1,1)模型与新信息UGM(1,1)模型”区分开。(4)文中p8等转置符号T,规范的撰写是正体,不是斜体。(5)p22,第三段第一句话“根据第2章的预测结果”,文中第二章是在介绍常规模型,没有进行预测,是不是“根据第3章的预测结果”?建议认真核实。(6)p24,第二段的表述“分别对.....数据建立新信息UGM(1,1)模型”不准确,建议改为“分别基于.....数据建立新信息UGM(1,1)模型”,或者改为其他表述,当前表述不妥。本页最后一句“确定纵坐标每刻度代表的值不一样后”表述不准确,不知道想表达什么意思。(7)p30,表5-2中“GM11、UGM11”分别改为“GM(1,1)、UGM(1,1)”。2.p25倒数第二段“由于灰色预测模型多用来处理小样本数据,且适用于短期预测,短期预测的精度更高,如果进行长期预测的话,预测精度则会降低。相较而言传染病动力学模型短期预测的精度不如灰色预测高,但长期预测的精度较为稳定。于是本节尝试将灰色预测模型与传染病动力学模型相结合”,那么什么样的数据是“小样本数据”?本文在使用灰色模型新冠肺炎患病人数时没有对数据检测是否是“小样本数据”而是直接使用了灰色预测模型显得不是很自然。3.参考文献撰写不规范:(1)论文题目实词首字母大小写不一致:文献[25,26]论文题目实词首字母大写,文献,24,27]等论文题目实词首字母没有大写。(2)是否包含页码撰写不一致:文献[14,15]等没有论文的页码,文献[11,13]等有页码。(3)是否在论文题目后标注[J]撰写不一致:文献[6,7,8]等没有标注,文献[12,13]等有标注。(4)杂志名称实词首字母大小写不一致:文献[2,3,8]杂志名称实词首字母没有大写,文献[1,13,14]等杂志名称实词首字母有大写。其它文献还有类似问题,建议作者认真核查,进一步规范撰写。",0,1,0,0,1,0,-1,0,1,0,0,0,0,0 +609,论文针对多孔氮化硅较高的孔隙率和多孔结构所引起的介电性能不稳定 、隔热性能和机械下降等问题,创新性地制备出纳米线增韧的复相陶瓷涂层来作为表面环境涂层,并研究了该环境障涂层的防潮及抗热冲击性能,取得了一系列规律性数据和研究成果,表明作者具有很好的基础理论知识和实际解决问题的能力。论文选题具有很好的理论研究和实际应用价值,写作规范,逻辑合理,完全达到了硕士学术学位论文的水平。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +114,本文将Zr 和Gd 元素加入含Nd和Y 元素的WE43镁合金中,以期研究将其应用于生物医学材料的可能性,同时研究了GW123K镁合金快速凝固后在时效过程中的组织及性能变化。论文选题分散,主题不够清楚,研究内容略显混乱,尽管可以归到合金元素的影响方面,但未能聚焦,很难系统研究。作者采用金相显微镜和扫描电镜表征了合金在各种状态时的微观组织,通过拉伸和压缩实验表征了合金的力学性能;采用XRD 分析了合金中的相组成;采用浸泡实验和电化学实验研究了合金的腐蚀性能。论文撰写基本规范,采用的理论和试验方法基本正确,数据结果分析基本得当,表明作者基本掌握了本学科的理论和知识,具有一定的从事科学研究工作的能力。建议进行重大修改后再参加硕士学位论文答辩。,0,-1,0,0,1,1,1,-1,0,1,1,0,0,0 +2854,论文以生物机制为理论依据,开展了基于视觉“what”通路的深度学习轮廓检测模型研究,设计了“what”视觉通路的的轮廓检测网络、基于仿生特征级联网络的轮廓检测解码网络、编码网络与解码网络4种方式结合的方法。提升了轮廓模型检测的性能。建议:1、论文第3章和第4章“本章小结”部分均使用了相同的一句“本文提出的方法为后续轮廓检测的研究提出了一个新的方法,并为将生物视觉机制融入于视觉任务中拓展了新的方向。”此句话易使读者对第3章和第4章的方法产生混淆。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +1183,本文以WL连锁零售企业的营运资金管理为研究对象,研究连锁零售企业的营运资金管理问题。本文的研究发现WL连锁零售企业存在经营现金流量不稳定、供应商关系不牢固、存货管理成本较高、配送速度慢等一系列问题,并相应提出了一些改进措施。本文的研究问题具有一定的现实意义,研究内容较为充实,能够说明作者具备一定的从事科学研究的能力。但是本文在文献综述、理论分析、研究方法、研究结论与启示等方面还存在一些有待改进的地方。,0,1,-1,0,0,1,0,0,-1,-1,1,0,0,0 +727,完成对等离子喷嘴钨极下方空腔的有限元动力学分析,计算结果表明:当进气压强为0.5MPa时,钨极下发产生回流区结构,氩气与回流区之间出现明显分界面,最大垂直向上的回流速度为15m/s;通过对阴极盖板及阴极内外芯开通分流气道,优化结果表明,回流现象消失且无明显湍流流动现象。通过对超音速雾化喷嘴结构的优化设计,进口尺寸2.3mm、收缩角3°、喉口尺寸0.2mm、扩张角6°、出口尺寸0.7mm。使耦合环缝气道出口最大速度提高24%,雾化区域内最大速度提高26.8%。满足得到细小球形钛粉的理论速度要求。得出试验雾化参数范围:进丝速度4m/s、等离子体压强0.8MPa。粉末颗粒形貌除了有少数粉孔洞之外其余粉末外表面平整,光洁度、圆润球形度较好,符合3D打印在医疗及航空级领域要求。 论文选题具有一定的理论意义和工程应用价值,超音速雾化喷嘴结构优化设计,得到了一些有益的结果,具有较好的应用前景。文章结构合理,内容真实,有一些研究成果,表明作者具有比较好的专业基础,已掌握了比较系统的专业知识。 论文已达到硕士学位论文标准,同意参加硕士论文答辩。,0,1,0,0,1,0,0,0,1,0,0,0,0,1 +2786,论文选题与设计本身关联性不大,脱离专业方向,并且文中多次提到“乡村康养产业”,并未提及或者很少提及与“乡村康养产业规划设计”相关的设计策略和建议。另外论文格式正确,书写规范,条理清晰,语言流畅。毕业创作积极向上,艺术感染力,专业性欠佳,图纸表现的工作量不够。需要改进之处:1、论文论述内容要和环境设计专业相符。2、有些段落出现标题与内容不符:如P11页二、乡村康养基本理论(一)乡村康养的概念与内涵下文连续出现“康养产业”而不是“乡村康养”,-1,-1,0,-1,0,0,1,1,1,0,0,0,0,0 +1187,本文以电网柔性负荷为研究对象,提出了一种考虑多类型柔性负荷的关联规则挖掘与需求响应方法,选题具有一定的实用价值。 论文整体结构较为完整,书写较为规范,作者对本研究领域文献资料较为熟悉,论文方案设计与技术路线基本合理,满足对论文的基本要求,有一定的分析与解决问题的能力,但在创新方面稍显不足,请按照以下建议进行修改完善。,0,1,1,0,0,1,1,0,1,1,0,-1,0,0 +1999,燃气涡轮发动机进气口端和涡轮机组件的承温能力只有不断提高才能够满足节能减排和开发新型清洁发电能的发展目标。因为Ta元素可以提高合金组织稳定性,改善合金力学性能、同时有效增强合金的抗热腐蚀性能,其为镍基单晶高温合金更好的发展提供了方向。针对当前燃气轮机对第二代镍基单晶高温合金的需求,论文设计不同Ta含量低 Re 镍基单晶高温合金,研究不同 Ta 含量对一种抗热腐蚀单晶高温合金900℃长时蠕变行为以及合金900℃长时热暴露组织损伤-性能退化规律的影响,以及对合金高温低应力长时蠕变变形机制的影响,并与合金短时蠕变变形行为进行了对比分析,为先进燃气轮机的发展积累实验数据,奠定理论基础。论文选题具有实用价值,结构较为合理,论述充分,实验方案可行,表明作者在涉及学科已掌握了较扎实的基础知识和较宽广的专业知识,具备一定科研能力。但论文需要一定程度的修改。,0,1,0,0,1,1,0,0,1,1,0,0,0,0 +17,《基于随机骨料投放的堆石混凝土力学性能研究》硕士学位论文具有一定的理论意义和实际应用价值。论文在全面总结了国内外堆石混凝土及混凝土类材料细观力学研究的基础上,提出了切实可行的研究方法。   该论文研究方法得当、论文工作量比较饱满;论文撰写思路清晰、观点明确、格式正确。作者将混凝土随机骨料细观模型的研究方法用于堆石混凝土力学性能研究中,将计算软件与有限元分析软件相结合,进行了随机骨料堆石混凝土的真实建模。得到了一系列结论,为堆石混凝土的应用奠定了基础,工作具有一定的创新性。   作者在本门学科上掌握坚实的基础理论和系统的专门知识,具有从事本学科的科学研究工作的能力。论文达到了硕士学位论文的水平,建议进行硕士学位论文答辩,0,0,0,1,1,1,1,0,1,1,0,1,0,0 +2149,针对无线传感器网络节点定位技术问题,本文分析了几种典型的定位技术的原理和特点,重点对4种基于非测距的定位算法进行了性能对比分析,从而选择了对APIT算法进行改进研究,从而提出了一种基于APIT和遗传算法的混合定位算法。选题符合培养目标要求,研究内容具有一定理论与实用价值。 论文结构合理,描述清楚。仿真实验与物理实验数据相关性较强。 同意修改后答辩。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +356,"金属有机配位聚合物(Coordination Polymers,简称CPs),由中心金属离子或金属氧簇与具有特定官能团的有机配体通过自组装相互连接,作为一种新型LIBs 负极材料,广泛应用于光化学、电化学等领域。本文通过水热合成方法合成了三种新型的中心原子(Co, Ni)不同但结构相似的 CPs 材料,通过对其改性,并将其作为 LIBs 负极材料进行了电化学性能测试。课题研究具有理论意义和实际价值。 论文的主要内容及结果如下: (1)以金属元素镍、钴为配位中心,分别使用 4,4′-联吡啶和双甘膦两种配体,通过水热法合成了出结构不同的三种晶体,对其结构、形貌和组成进行了表征分析,将其制作成负极片组装成纽扣电池。电池性能测试结果表明,随着电流密度的增加,三种材料组装电池的比容量降低,它们均适合于在小电流密度下工作。 (2)将三种 CPs 材料在空气气氛中800℃下烧结 4h 形成相应的磷酸盐。电化学测试结果显示,相比于三种CPs 材料,三种改性磷酸盐晶体材料的电化学性能均有提高,且以含钴的材料性能最好,倍率性能测试后,材料性能相对稳定。 (3)通过超声和水热两种方法对三种材料进行石墨烯(Gr)复合,经过对复合样品的电化学性能测试,发现三种晶体材料的电池性能均得到较大提升,且有机膦酸钴镍-石墨烯复合物(PNC/Gr)的电池性能最好。 论文的实验工作量合适,电极材料改性制备工艺可行,表征手段运用合理,所得结论可信,具有参考价值。论文撰写规范,逻辑性较好。通过对论文工作的总结,在Journal of Alloys and Compounds等期刊上发表SCI收录论文2篇,表明作者掌握较好的材料化学化工专业知识,具有一定的科研工作能力。",0,1,0,1,1,1,1,0,1,1,1,0,0,0 +2165,追求环境与人类和谐生存与发展的绿色文明,已成为世界各国的共识。绿色金融来源于绿色文明,绿色信贷作为绿色金融的重要内容之一。商业银行发展绿色信贷不仅有利于其利用信贷手段扭转企业污染环境、浪费资源的粗放型生产经营模式,而且有利于其不断开发创新绿色金融产品和工具,促成金融与生态的良性循环。 该论文通过借鉴国内外关于商业银行绿色信贷业务开发与其竞争力提升关系的相关研究成果,以金融可持续发展理论、企业社会责任理论、商业银行环境风险管理理论为指导,在分析了绿色信贷对商业银行竞争力的作用机理、我国商业银行绿色信贷发展现状和问题的基础上,选取了17 家银行作为研究对象,构建了一套较为完善的商业银行竞争力评价体系,运用主成分分析法,得到了 17 家银行的综合竞争力得分。进而利用绿色信贷指标,对面板数据进行分类,将17家银行分为5家国有银行和12家股份制银行,利用随机效应回归模型,实证分析了绿色信贷对商业银行竞争力的影响程度及其作用方式。最后依据实证结论,从绿色信贷信贷政策扶持,产品创新以及激励机制等角度提出了相应的对策建议。具有一定的学术参考价值和现实指导意义。 总之,该论文选题符合金融学专业硕士研究生培养目标要求,研究思路及逻辑结构较为清晰,资料丰富,论证较为充分,观点明确,论文整体上达到了硕士学位论文的质量水平。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +899,对传统服饰文化进行研究具有一定的社会人文价值,该学位论文对满族服饰图案的艺术呈现、满族图案元素在传统服装中的应用、国潮服装的美学形式美感及满族图案元素在国潮服装中的设计应用表述充分,综述准确,且具有一定的研究创新点;在设计实践部分,系列服装设计思路清晰,具有明确的主设计元素,轮廓造型与局部造型互为衬托;系列色调和谐统一,主辅色块的面积比例适当,对设计实践的文字表述较为充分地反映了服装设计与制作的过程,能综合应用所学的理论和基础技能。综上所述,该论文整体质量良好,可参与论文答辩。,0,1,1,0,1,1,0,0,0,0,0,1,0,1 +2238,1.论文以传统吊脚楼围护结构热工性能差、居住舒适度低、建筑能耗大作为主要切入点,分析出当地侗族传统吊脚楼目前存在的问题,对程阳八寨地区建筑朝向、太阳辐射、风向以及外部空间环境影响因素进行深入研究,提出侗族传统吊脚楼围护结构被动式改造方案,并借助可持续建筑设计软件Ecotect检验改造的有效性与可行性。研究成果可以更好地改善少数民族村寨的居住条件,保护和发展民族文化,带动当地旅游经济的发展,有利于广西少数民族利用本土民族文化资源实现脱贫奔小康,具有重要的现实意义。2.整体来看,论文选题合适,研究方法得当,研究目标明确,文章结构合理,各种数据、图表齐备规范,取得了一些研究成果。论文达到了硕士学位论文的要求,同意答辩。3.存在的问题:(1)技术路线确实图号和图名,文中括号既有中文输入,又有英文输入,全文核对统一;文中图片(如图4.1中CAD图,建议进行处理等等)和曲线图适当进行美化(如图3-8,建议去掉网格线);图的编号统一格式,表格不能之间截图(如表4.3,等等);格式问题较多,全文认真核对修改格式问题。(2)各章节逻辑关系不明确,全文语言表述需进一步凝练。,0,1,0,0,0,0,-1,0,-1,1,0,0,0,0 +2346,本文研究选题贴近实际,符合专业硕士研究生选题要求。作者能运用文献资料,结合专业知识,构建自己的研究思路,搭建关于既定问题的研究框架。研究方法可行,工作态度较积极,结果建议具有一定参考价值。选择合适的评估方法对于特定对象价值的评估,始终是企业资产评估的首要课题。对于在线音乐平台采用什么方法评估,本文作者介绍了成本法、收益法和市场法。最终从顾客感知价值入手,采用改进市场法对网易云音乐评估。在文献分析过程中,关于感知价值与市场法本质关系是什么,市场法是怎么被改进的?内在的逻辑是什么,没有交代清楚。文献中提到关于平台企业评估方法是期权法,怎么本文特定对象的评估又是市场法,与市场法是什么关系?建议在文献梳理时候,尽可能考虑课题研究的需要,构建服务于课题需要的语境体系。,0,1,0,0,0,0,0,0,-1,0,0,1,0,0 +2315,本文通过超额收益法改进,利用层次分析法计算收益分成率,再利用熵权法对层次分析法的结果加以修正,得出修正后的商标权收益分成率,从而计算出商标权历史超额收益,过灰色模型预测未来超额收益,并应用于金山办公WPSOffice商标权价值评估。论文选题来源于实践,具有应用性,能够综合运用企业价值评估相关的理论知识,选择合适的方法,资料运用合理、得当,论证充分,研究成果有一定的应用价值和实践性,论文结构基本合理,层次较为清晰,概念较为清楚,逻辑性较好,综合归纳和手段应用丰富、结论基本合理。问题及不足:1、摘要,规范书写,研究背景、意义、目的、方法、结果凝练不当。2、文献综述规范性,现状大量英文的陈旧文献,最新文献被遗漏;文献评述更像是工作总结,缺乏国内外研究总结和讨论、重点不突出、段落结构和逻辑不清晰、论述目标不明确结论。3、使用层次分析法和熵权法计算考虑因素,权重打分、灰色模型预测超额收益率等参数多为人为主观判断,分析不够,超额收益和无形资产收益是不同的,折现率、收益期限界定难未有很好改进,未与当前经济发展形式、有关产业发展状况进行结合详细地预测,影响结论可靠性。,0,1,-1,0,0,0,0,0,1,0,0,1,0,0 +1801,论文以电动汽车专用直流接触器为研究对象,对电动汽车用直流接触器的开断性能进行研究,采用仿真与实验相结合的方法研究接触器开断过程及灭弧影响因素,选题具有很好的工程实际应用价值。 论文对不同磁感应强度和不同触头开距组合进行理论和实验研究,发现磁场、开距的改变对开断电弧燃弧时间的影响规律,以减少电动汽车用直流接触器燃弧时间。论文写作结构严谨,层次分明,符合科技论文规范;推理合理,逻辑性较强。论文反映了该生对本学科及相关领域的研究成果有较全面的了解,具有较好的运用科学理论、方法和手段独立解决实际问题的能力。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1161,本文详细介绍了中央空调空气处理系统的构成和工作原理,以中央空调空气处理系统总能耗最小和热环境预测不满意百分数最小建立中央空调空气处理系统多目标优化模型,明确各项工艺参数的约束条件。针对标准MOPSO算法中存在搜索能力不足和多样性差等问题,采用改进MOPSO算法求解中央空调空气处理系统多目标优化问题。经过实验验证,改进MOPSO算法实现了既满足使用者热舒适度的高要求,又降低了系统运行的能耗。论文具有一定的理论性和实用性,同意参加答辩。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2363,本文以某敬老院五保老人为研究对象,对其精神慰藉情况进行了需求评估,选题具有一定的理论意义和现实意义,论文结构完整、论证较为充分,文献资料较为详实,务实过程较为规范,达到硕士学位论文水平。不足之处:1.精神慰藉是本文的核心概念,虽然学术界未针对这一概念达成一致,但是对于精神慰藉的界定还是有的,但是作者并未对这一概念已经有的研究进行总结,而是自己进行了四个维度的界定,学术严谨性有待提高。2.部分小组活动主题与精神需求评估对应的不是很好。,0,1,1,0,0,0,0,0,1,0,-1,0,0,-1 +1103,本论文在文献综述的基础上,以泥水挤压平衡盾构法施工的城区内隧道为研究背景,运用FLAC3D商用软件进行了数值模拟分析,研究了盾构掘进过程中施工参数(第三章)和地层参数(第四章)对地层及地表变形的影响,最后第五章研究盾构施工对地下建筑(包括邻近隧道以及基坑)的影响。 论文选题密切结合国家行业内重大工程项目及其存在的技术难点,具有重要现实意义。 论文对岩土地层采用泥水平衡盾构进行施工模拟,具有一定的探索创新。 在盾构掘进过程中,变换施工参数以及地层参数,进行数值模拟计算,研究得出的地层变形以及地表的隆沉规律等相关结论对于实际工程实践具有一定的参考作用。 文献综述较为全面。对数值分析以及得出数据的分析较为清晰。论文作者较为全面的掌握了本学科的专业基础知识。 论文书写规范,叙述逻辑性较强。,0,1,1,0,1,0,1,0,1,0,1,1,0,0 +961,论文以数字化转型背景下的美的集团为研究对象,通过纵向对比美的集团数字化转型前及数字化转型后财务绩效,横向与格力电器、海尔智家财务绩效进行对比,详细探究近年来数字化转型对企业财务业绩的影响,论文从选题上基本符合会计专业硕士的选题要求,对于提升美的集团的财务绩效水平具有一定的理论价值和实际意义。 论文能够按照修改建议进行修改,补充了相关内容,完善了相关逻辑结构。修改后的论文,结构基本合理,论证较充分,基本达到了会计专硕学位论文的要求。 ,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +821,针对现有风力发电机功率密度较低、运输成本高、容错性较差等问题,新型笼障转子耦合双定子无刷双馈风力发电机相比于永磁风力发电机和有刷双馈感应发电机,具有功率密度高,稳定性好,无永磁体退磁风险以及维护成本低等优势,同时存在损耗较大并且结构复杂导致散热困难。论文双定子无刷双馈风力发电机冷却系统设计及温度场计算研究,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,同意参加进行答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +2493,该论文用小组工作方法介入癌症患者焦虑情绪的研究较以往侧重个案工作方法在形成组员支持扩展同辈群体方面具有一定的优势,但无疑也呈现出一些局限与不足。此论文选题较新,论文结构基本合理,脉络较为清晰,语言表述也较为规范,基本达到硕士毕业论文撰写要求。论文在后续可进一步修改完善,并提出如下建议:第一,小组第一节活动进行非理性认知的纠正,感觉在第一次小组活动中进行过早,效果可能会受到一定影响;第二,非理性认知的纠正以及社会支持的建构都分别用一节完成,个人感觉很难达到预期的效果;第三,小组结束后,根据焦虑前后测得到一定程度的缓解,并没有彻底解决,另外癌症疾病的存在,也很容易引发反复,所以建议加入对小组的跟进。,0,1,0,0,0,0,0,1,1,-1,0,0,0,0 +2280,"本论文以鲤鱼精子DNA的制备及其消除溴化乙锭污染物的应用为研究对象,首先对鲤鱼精子DNA的制备方法进行改良和筛选,确定最佳方法,并分别确定DNA和染色质选择性去除EtBr污染物的高效方法。论文选题具有一定创新性和潜在的应用价值。作者查阅了大量文献资料,研究内容和方向明确,并完成了大量的研究和分析实验,工作具有一定的难度及工作量。论文结构完整、规范性,数据可靠,分析问题比较深入,结论合理。硕士期间发表了相关研究论文,表明作者已掌握了应用化学的基础理论和专业知识。以下建议供作者参考:1)文献综述部分针对DNA提取技术的国内外研究进展情况介绍的不充分,缺少对染色质的介绍,对于该方向研究的必要性阐述的不够深入,需进一步补充完善;2)建议每个章节的结论尽量精炼,不需要过多的描述比较过程,主要呈现的是结果,尤其结论中不应该出现表格,请修改完善;3)作者只关注了原料成本低,并没有描述csDNA和染色质开发过程中产生的成本,请补充。综上所述,论文达到学术硕士学位论文水平要求,建议修改后组织答辩。",0,1,1,0,1,0,0,-1,1,-1,0,0,0,0 +330,钢铁行业是我国第一产业重要的经济支柱,炼钢-连铸过程是钢铁生产线上的重要生产工序。该论文选题“考虑设备维护的炼钢-连铸调度问题研究”,选题具有重要理论意义与实际应用价值。 论文在对国内外相关问题的研究现状进行概述的基础上,进行了以下研究工作: 1)针对灵活周期维护的炼钢-连铸调度问题进行建模研究,给出了设备灵活周期预防性维护多目标炼钢-连铸调度问题的定义,建立了非线性的数学规划模型,优化目标为最小化最大完工时间、最大化设备利用率、最小化最大等待时间。 2)设计了问题求解的分散搜索算法。以非支配排序遗传算法的排序方式作为分散搜索算法选择策略,以弧组合方法作为组合算子,设计了倒序的多样性解生成方法。基于随机生成的不同规模的测试案例设计仿真实验。通过与遗传算法比较分析验证了所设计的分散搜索算法的有效性。 论文结构合理,条理清晰,叙述翔实。 综上,该同学已经掌握了本门学科坚实宽广的基础理论和系统深入的专门知识,具有独立从事科学研究工作的能力,论文达到硕士学位论文水平。,0,1,0,0,1,1,0,0,1,0,0,0,0,0 +861, 该论文聚焦彝族人物专题创作研究与思考,研究选题具有当代民族人物题材研究的现实意义,选题价值较为良好。从文章反馈的修改情况看,研究者态度有了明显的提升,逻辑关系的架构设计趋于合理化,文字的表述趋于完整、准确,句群关系趋于严密合理。研究重点比较清楚,许多无关论述进行了删减。研究的思考意识有所提升。 本专题研究与创作关系紧密,有点遗憾是作为研究生创作,主题性、艺术风格特性仍有较大的探讨空间。研究生学业固然有期限,但学习的道路上需要严格的自我要求才能达成较为恰当的状态,请继续认真努力学习提升自己。,0,1,0,0,0,0,0,1,1,0,0,-1,0,0 +1258,电机损耗和温度场的建模与计算,对电机运行性能分析及电机设计具有重要的指导作用。论文选题具有一定的理论意义和应用价值。论文研究了混合双定子电机低速大转矩同步电机的损耗与温度场计算问题,完成了题为《混合转子双定子低速大转矩同步电机损耗与温度场计算》的工学硕士学位论文,主要工作如下: (1)针对混合转子双定子电机结构特殊、损耗计算困难、电磁场复杂的问题,建立了考虑交变磁化、旋转磁化以及谐波影响的铁耗计算模型,并给出了考虑温度对外定子绕组影响下的铜耗计算模型,最后提出永磁体涡流损耗计算模型。 (2)针对混合转子双定子电机结构复杂致使温度场计算困难的问题,提出了该电机的热网络模型,推导了电机主要部件的热阻,建立了热网络方程。分析了磁-热单向耦合与磁-热双向耦合电机温度场,与有限元计算结果进行了对比分析。 论文条理比较清晰,撰写基本规范。论文基本达到工学硕士学位论文水平,同意修改后答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1386,该论文针对文本情感分析开展深度学习方面的研究,选题具有一定的实用价值。论文的主要工作分为三个部分,将多头注意力机制和LSTM模型相结合;使用Bert模型改善词嵌入机制;设计了一个简单的新闻舆情监测系统。 从研究内容来看,创新性几乎没有,缺乏有说服力的创造性工作。从对比试验来看,作者虽然进行了一些实验对比分析,然而并未和最新的情感分析研究成果进行对比,严重缺乏说服力。,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +2686,"论文通过数值模拟的方法建立了单空化泡的·OH产量预测模型。基于单孔孔板结构,考察了P1、P2、d0、dp、C、R0这六种因素对单个空化泡·OH产量的影响。在计算单空化泡·OH产量的基础上,通过数值模拟的方法进一步建立了空化泡群的理论计算体系,并研究了P1、P2、d0、dp、C对自由基产量的影响规律。同时也作了一定的实验与模拟数据做对比.论文有一定的理论及应用价值,作者思路清晰,书写规范,理论基础扎实,能够利用化工学科的相关知识分析解决问题,达到硕士论文毕业要求,经过认真修改可进行答辩.一些建议如下:1.摘要第一句话病句.请修订2.英文摘要有一部分翻译是直译,请修订3.目录缺1.1.24.参考文献标注,比如对三个连着的文献的标注方法不一致,;另研究意义部分的文献比较乱,是不是前面已经引用过了,又再次引用?是否有必要这么多次引用,也或者是否可用作者名字代替,而不加序号?其他部分一样.5.1.2部分的由于低分子量的壳聚糖具有良好的生理活性,所以壳聚糖的应用和降解受到研究人员的关注。通常降解壳聚糖的方法主要有化学法、酶解法和物理法。本文没有讲应用,主要讲降解.降解和应用是否更合适?6.公式的标号,每一章都是从1开始,是否算重复,请分段标注7.表2-2英文表头修订8.图5-3标注曲线,黑色线去掉,只留实验点9.实验部分只考察了压力的影响,而其他因素没有考虑,实验数据量偏少.如果实验条件允许,可以添加一些验证数据.",0,0,0,0,1,0,1,-1,-1,-1,0,1,0,0 +2572,互联网视频的轻资产属性、可比案例不足以及现金流不稳定等因素使得传统的评估方法使用受限。论文结合互联网视频企业客户特征,对客户终身价值模型参数进行改进,试图得到适用于互联网视频企业的估值模型,论文选题来源于实践,具有一定的理论意义与应用价值。论文模型分析较为准确、数据丰富、资料翔实、论证方法科学合理,能够综合运用相关的理论知识对问题进行分析,表明作者掌握了一定的理论基础与专业知识,并具有独立开展科学研究工作的能力。论文规范性与逻辑性较好,文字表述准确与流畅,具有一定的文字表达能力。论文达到了硕士学位的学术水平,同意答辩。论文存在的问题及不足:第11页,国内外研究述评要指出现有研究存在的不足。第39页,为了验证模型的有效性,应与传统估值方法的结果进行对比。,0,1,-1,0,1,1,1,1,1,0,0,0,0,0 +1723,论文选题来源于财务管理领域的实际问题,符合专业要求,并有一定的研究意义和应用价值;参考文献较为丰富,文献评述具有一定的广度和深度;论文采用的研究方法恰当,研究步骤和过程规范,案例分析方法运用较好,分析到位,体现了作者综合运用知识、分析问题和调查研究的能力;研究过程和研究结论具有一定的合理性,对中小企业选择采用供应链融资具有较好的参考意义和借鉴价值;结构合理,条理清晰,体现了较好的逻辑性,规范性方面也表现较好。,0,1,1,0,1,1,1,0,1,1,1,0,1,0 +1486,高溢价跨界并购在一定程度上可以加速企业并购的进程,但远超过合理范围的溢价不仅增加会企业并购成本,也会增加并购后企业绩效压力。本文以原从事高端装饰贴面材料研发、设计、生产和销售的聚力文化以34亿元人民币为代价,跨界收购苏州美生元信息科技公司并产生30.43亿元商誉为背景,分析高溢价的成因、跨界并购的动因、并购经济后果及造成经济后果的原因,并提出相关建设性建议。选题有一定的现实意义。研究结果对相关企业较具有借鉴作用。反映作者对本学科相关基础理论有一定程度掌握,有一定的发现问题和解决问题的能力。 综上所述, 该同学的论文达到硕士学位论文的要求。同意其修改后参加硕士论文答辩。,0,1,0,0,1,1,0,0,0,0,1,0,0,0 +1767,论文研究了碳元素对激光熔化沉积成形GH3536合金组织性能影响,此项研究属于增材制造技术。增材制造技术是近年来快速发展的一项技术,可突破传统技术的局限,在制备复杂结构零部件方面具有很大优势,获得传统制造方法无法达到的性能。 论文作者广泛查阅了国内外相关文献,掌握了相关领域的发展方向,确定了用激光熔覆法,沉积成形GH3536合金,并研究C含量对GH3536合金的微观组织、拉伸强度、持久强度等力学行为的影响规律,探讨C的作用机制。论文对基体组织、热处理工艺等做了详细的研究,以期获得GH3536合金的最佳性能。 论文选题新颖,研究方向明确,所用的表征方法准确,结果可靠。 作者对实验结果进行了细致的分析,具有一定的独立科研能力,能够把所学知识用于实践。 论文工作量较大,从实验设计到结果分析及结论比较完善,有一定的合理性和逻辑性。 论文写作基本规范,表达清晰,语言通顺,逻辑性强。 论文达到了硕士学位的要求,同意进行学位答辩。,0,1,1,1,1,1,1,1,1,1,1,0,0,0 +2837,论文以钢-混凝土组合连续梁的中支座截面负弯矩区混凝土板容易开裂为研究背景,采用试验研究、理论分析和数值模拟相结合的方法,将“预应力碳纤维棱柱体复合筋”用于梁受拉区,证实其可以有效延缓裂缝开展、减小裂缝宽度以及提高结构耐久性。论文选题结合科学前沿和工程实际,作者具有一定的专业研究基础能力;文本写作规范程度需加强,文献资料较为齐全,尚未发现不当引用及抄袭现象论文已经达到硕士学位论文水平。建议如下:1、参考文献只写到2016年左右,请适当补充近五年相关研究内容;2、试件数量相对还是略少,后续研究中建议对其他参数进行分析;3、三根梁的主要区别在于后两个试件的负弯矩区分别配置了1根和3根CFRP筋,除了减轻开裂、L/600时的裂缝宽度外,其对抗弯承载力也应该有较大贡献,但从表3-1来看,似乎并没有起到提高承载力的效果,请作者进一步核实;,0,1,1,0,0,1,-1,0,0,0,0,0,0,1 +828,自2016年10月10日以来,我国市场化债转股正式开始实施。论文采用案例研究方法,通过对云锡集团募集社会资本基金模式债转股的案例进行分析,总结募集社会资本基金模式债转股的特点,并且分析债转股对基金构建三方产生的效应。论文选题结合中国资本市场当前实际,具有一定的现实意义。文献综述收集了相关文献,基本概念和理论掌握较好。论文结构合理,层次清楚,逻辑性较强,写作规范。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +357,"近年来,红外光虹膜识别技术 已在智能手机中得到较好的应用。但红外线采集虹膜 图像会对眼睛造成损伤,且需增加设备成本。本文开展“基于可见光的移动端虹膜识别研究”,具有重要的科学意义和实用价值。 针对可见光移动端虹膜识别采集照条件和采集设备不固定,图像易受干扰等问题,借助暗通道去雾方法,论文提出两种适用于不同光照条件和采集传感器的可见光移动端虹膜识别方法,具有较好的创新性。 作者硕士期间工作较踏实:发表杂志论文两篇;此外,论文结构合理,作者思路清晰,行文流畅,写作规范,反映该同学有较扎实的专业基础知识, 具有较强的分析问题和解决问题的能力。",0,1,0,0,1,1,1,1,0,0,0,1,0,1 +1828,论文以柔性连杆机器人为对象,对其振动抑制等问题进行了较深入的研究。选题具有一定的应用价值。 论文的主要工作或成果如下: 1. 利用假设模态法与拉格朗日方程建立了单连杆柔性机器人的动力学方程; 2. 将所得到的机器人动力学模型做了奇异摄动分解; 3. 针对前述奇异摄动分解得到的快、慢子系统分别设计了线性二次最优控制器和神经网络滑模控制器,并通过仿真验证了控制方案的可行性。 论文的结构合理,行文规范,表述较准确,工作量尚可。总体而言,作者已基本掌握本专业的理论分析和专业应用技能。论文达到了硕士专业学位论文的要求。,0,1,0,1,1,0,0,1,1,0,0,0,0,0 +2156,针对中国西北、华北、东北(简称“三北”)地区冬季供暖期弃风现象严重的问题,在研究电负荷特性、热负荷特性与风电场出力特性相关性基础上,结合电网调峰、热网调峰特点,研究热网配置电锅炉和储热罐进行调峰的消纳弃风方案具有良好的应用背景及实用价值。作为专业硕士论文选题是适当的。 论文在简单综述前人工作的基础上,针对电锅炉与储热罐的弃风消纳方案,介绍了某 330MW 一次调整抽汽式汽轮机的电-热特性的计算结果,并对弃风消纳方案的机组电-热特性进行了修正,随后以弃风消纳空间增量和净现值为目标函数,对不同弃风消纳方案中电锅炉和储热罐的最佳容量进行了计算,并基于风电负荷及热负荷的波动特性对不同弃风消纳方案进行了社会效益分析。论文课题研究反映出作者已在本研究领域具有一定的研究工作能力,但全文内容存在诸多问题:阐述缺乏清晰的逻辑思路及科研论文写作规范,分析计算没有环境对象及必要的原始基础数据,而且语言组织比较混乱,作为学位论文就目前呈现的状态来说是不具备答辩的基本要求的,建议做大修改后(再送审,合格后)答辩。,0,1,0,0,0,1,-1,-1,-1,0,0,0,0,0 +2368,本文以桑蚕茧为原料,研究丝素蛋白和丝素肽的制备方法和工艺,制备出纳米的丝素肽液,本文的选题具有较好的理论和实用价值。论文研究总体结构合理,工作量达到硕士论文水平。利用本文提出的酶法水解丝素蛋白的方法制备出的纳米丝素肽材料,能很好的被人体所消化吸收,可以应用于食品添加剂、保健食品和化妆品领域中,研究有一定的产业化前景。但是,本文的写作还有些问题,建议进行修改。如:章节引言写的太短,基本没有说清楚本章为什么研究,章节之间的关联性没有表达清楚。此外,本文的小标题建议重新编写,例如结果与讨论部分2.3.1.1.。。。。等,这种小标题太长了。建议修改后进行答辩。,0,0,0,0,0,0,1,-1,-1,0,0,1,0,0 +425,论文对双目立体视觉技术在机器人中的应用所涉及的目标物识别、定位和抓取等问题进行了较深入的研究。选题具有良好的工程实用性和学术研究价值。 论文的主要研究工作(成果)如下: 1. 分析了相机参数标定和图像滤波算法,并通过实验进行了验证; 2. 探讨了对目标物在非常规条件下的识别和定位问题; 3. 设计了双目视觉抓取系统,并进行了机器人运动学仿真和目标物识别抓取实验验证。 论文结构合理,行文较规范,表述基本准确,论据较充分,工作量较饱满。总体而言,作者已掌握本专业的理论分析和专业应用技能。论文达到了硕士学位论文的要求。,0,1,0,1,1,1,1,1,0,0,0,0,0,0 +2757,论文选题具有一定前瞻性,研究成果具有一定创新性,能够准确把握该领域研究动态,语言表述准确,研究方法设计合理,对实际设计有一定指导意义,已达到硕士学位论文水平。但是存在如下问题:1.申请土木工程学科硕士学位,应该把研究的侧重点放在新型建材的力学性能及耐久性方面,建议增加此方面内容研究;2.表2-1中氧化物表示出现错误,如“MaO”、“LOI”;3.文中的所有公式请居中处理;4.请解释图3-11中碳酸氢钠含量对筒压强度影响剧烈波动的原因;5.在细观结构分析、成分分析部分,建议结合SEM、XRD测试结果分析吸声性能和筒压强度变化规律;,0,1,0,0,0,0,-1,0,0,0,0,1,0,0 +1068,本论文从聚氨酯弹性体的阻尼性能的改良出发,采用软硬段共聚的方式在宽温浴区间实现有效的阻尼;同时利用无机填料进一步改善了材料的阻尼性能。论文的选题具有实际的应用价值,前沿工作和发展历程调研清晰,工作量充足。具体展开如下工作: 第一部分工作中通过6种配方的优化确定TDI和MDI 单作为硬段对阻尼性能贡献不大;PPG软段的PT3M在低温具有较好的阻尼性能,而PEMG软段在高温区性能优异。混合硬段的聚氨酯具有出色的阻尼性能,优化了硬段混合比例及聚合体系中硬段含量。经优化后的G-T3M(65)材料进行复合材料研究,研究了填料种类和添加量对材料阻尼性能,耐温等性能的影响。最后作者研究了材料的制备工艺(分层浇筑)对性能的影响。 通过上述工作本文优化了聚氨酯弹性体的分子结构、配方及制备工艺。得到了聚氨酯弹性体作为阻尼材料的经验规律。,0,1,1,1,0,0,0,0,0,0,0,0,0,0 +285,该生论文针对化学试剂检测油烟浓度的方法存在采集数据实时性差,成本高和监管难等问题,设计开发可实时对餐饮企业的油烟排放量进行检测和监管的系统。论文选题有助于解决监管部门实现对餐饮企业的油烟排放量的有效监管提供手段。 论文所设计的在线油烟实时监测系统包含了油烟采集、通讯、服务器、数据库和人机交互五个模块,采用MySQL 数据库创建数据表,通过 GPRS 无线通讯技术传输实时油烟数据,设计通信格式和服务器模块功能,采用 Java 语言和 MINA 通讯框架编写实现TCP/IP通信、用户登陆、实时数据显示、油烟数据查询、系统用户信息管理等功能,采用 Java 语言开发实现在线油烟手机查询功能,增添系统维护与故障处理功能,采用遗传算法优化维修顺序,指导安排维修人员和维修顺序,有效提高维修效率,降低维修成本。 该生的论文条理清楚,层次分明,写作规范,文字通顺,理论推导正确。   该论文反映出作者控制理论基础知识扎实,软件编程能力强,具有解决实际问题能力及良好的科研潜力。到达了硕士学位论文的要求,推荐安排答辩。,0,0,0,0,1,1,1,1,1,0,0,0,0,0 +2782,论文选题有一定的现实意义,研究思路基本可行,作者有较好的理论基础知识储备,但论文的选题与研究内容有一定偏差,研究重点不突出,研究结论意义不大。建议作重大修改后再进行答辩。存在的主要问题:1、第三章EVA和FCFF估值模型理论与改进“基于动态WACC的改进思路”与EVA和FCFF是什么关系,与论文题目什么关系,没有完整的逻辑关系解释。2、第四章案例应用分析(1)最后应该有一节,对这两种方法的评估效果进展比较和总结。(2)用改进的EVA和FCFF两种方法分别去评估企业价值。为什么要去比较这两种方法?方法有很多种,为什么选用这两种方法比较,没有说清楚。3、论文的结论是EVA更好,论文的改进方法是基于WACC,所以,建议改论文题目为:基于WACC的改进EVA模型在物流企业价值评估中的应用然后把该方法与其他传统方法进行对比。,0,1,0,0,0,0,0,0,0,0,-1,0,0,0 +466,论文通过溶剂热合成方法一步合成具有微米花形貌的钴酸镍纳米粉体材料,研究了其物相组成、形貌特性、微观结构及电化学储能特性;采用常见的多孔泡沫镍为生长基底,以乙醇作为溶剂,通过溶剂热反应获得均匀生长在泡沫镍骨架上的超薄多孔钴酸镍纳米片。对物相、形貌和微观结构进行了相应的表征,三电极体系中使用碱性电解液对电荷储存能力进行分析;通过使用 PEG20000 作为生长模板剂,在泡沫镍骨架上均匀生长了钴酸镍纳米针阵列结构。使用 XRD,XPS,SEM,TEM 等对电极进行物相、元素价态、形貌及微观结构进行表征,三电极系统用来表征其电化学储能特性。 论文选题基本符合专业培养目标,论文选题质量一般,本文工作量不大。 该生查阅文献资料能力较差,不能全面收集关于钴酸镍微纳结构构筑及超级电容性能研究的资料。写作过程中综合运用所学知识,全面分析问题的能力较差,创新性一般。论文撰写和规范方面存在较多问题,逻辑性不强。,0,-1,-1,-1,-1,0,-1,0,-1,0,0,-1,0,0 +2043,铁素体不锈钢在汽车排气系统中应用广泛,研究铁素体不锈钢高温氧化行为和冷凝液腐蚀行为具有重要意义。本文针以铁素体不锈钢氧化动力学规律和腐蚀动力学规律为研究目标,系统研究高温氧化行为和冷凝液腐蚀行为,揭示其氧化和腐蚀机理,评估不锈钢抗氧化性并进行寿命预测。论文选题实用,对铁素体不锈钢应用在排气系统热端和冷端部件制造中提供了可靠的数据支撑,有重要的理论意义和实用价值。 本文作者查阅文献广泛,对国内外的学术动态较为熟悉,掌握了本学科领域的前沿知识,具有较强的的文献资料查阅能力和综述能力。在此基础上,作者以两种Fe-Cr-Ti型铁素体不锈钢为研究对象,设计规划了切实可行的技术路线并予以实施。系统研究了500°C、800°C、900°C下连续保温100h的氧化行为和经冷凝液20周期循环腐蚀行为,分析了试验数据,讨论了机理。 论文作者能够结合本专业的理论知识,从课题实际出发,发现、分析、解决课题存在的问题,有较强的解决问题能力;作者具备了一定的科学研究能力和独立进行研究工作的能力。论文研究方法正确、数据翔实、分析合理,结果正确;具有重要的实用价值。 论文分析严谨,数据真实可靠,论文章节结构合理,逻辑性强,论文写作规范、文笔流畅、图表清晰。 综上,论文达到了硕士学位论文水平要求,同意组织论文答辩并建议授予硕士学位,0,1,1,1,1,1,1,1,1,1,1,1,0,1 +2086,研究课题选题具有理论及应用价值,具有很好的工业化应用的背景。 研究论文主要围绕着以配位和络合为技术手段对钛的机醇盐在结构上进行特定的调整,以获得两种稳定、耐水解、选择性高的均相液态钛系催化剂,分别是一种钛含量为0.45%的络合型LCLT催化剂和一种钛含量为5.04%的螯合型HCLT催化剂。经过对多组实验地长期观察和特定应用环境下的模拟验证,表明两种催化剂均具备抗水解能力,HCLT催化剂的耐水解性及贮存性都优于LCLT催化剂。(2)研究了催化剂LT对PET聚合反应的影响,结果表明LT系列的两种催化剂对酯化反应具有催化促进作用,8ppm的钛系催化剂参与酯化反应后,可以缩短酯化反应时间20min以上;在缩聚反应阶段,与120ppm乙二醇锑为催化剂的缩聚反应相比,8ppm的钛系催化剂可以缩短缩聚反应时间40min以上等数据,获得了一些工业化前期的数据。 整个研究内容已基本达到研究生毕业要求,写作较为规范,研究生有一定的分析问题和解决问题的能力,但工作量偏少,有些内容的数据与专业理论结合与分析深度不够,应进行修改后才能进行答辩,具体修改意见如下所列。,0,1,0,-1,0,1,1,0,0,0,0,0,-1,0 +2840,论文以机动车在高速路上产生的交通噪音为切入点,基于研制的一款新型非金属声屏障结构即UHPC声屏障立柱,针对新型声屏障材料开展相关研究工作。首先,依据相应规范要求对UHPC声屏障立柱进行荷载计算及声学设计。其次,设计UHPC配合比,制作试块并测试抗压强度、抗折强度、弹性模量等力学性能指标,将C30普通混凝土和UHPC材料立柱作对比分析,分别进行截面计算和配筋计算。应用有限元对两种立柱进行数值模拟,分析UHPC声屏障立柱在正常工作情况下的变形是否满足相关规范要求。最后,制作C30混凝土和UHPC两种立柱构件并进行抗弯曲断裂和抗弯扭组合验证性试验,通过数值模拟计算对比分析,结果验证其力学性能是否都能满足工程实际应用要求。论文选题与工程应用紧密结合,具有一定的创新性,研究内容丰富,工作量较大,有一定的应用价值。但仍存在部分问题需要修改,建议论文修改后答辩。具体意见如下:(1)摘要中“本文设计了.......本文荷载设计值为3.5kN/m2”为规范设计计算取值内容,作为论文研究内容不妥,建议删除。摘要表述中有“本文设计了......应力应变曲线”内容,对应5.2节分析内容中并未涉及摘要中内容,请解释说明。摘要中“完美”一词过于绝对,建议更改。关键词数量较少,一般以5~8个为宜,建议适当补充。(2)2.5节中“参照......为1.90kN/m2”为规范内容,放在此处不妥,建议删除;“下章...配筋理论计算”语序倒置,语言表达欠妥,建议修改。文中规范标准重复引用时,建议简写。(3)3.1.2节中表述弹性模量为测试结果显示,该处表述欠妥,弹性模量是经公式计算而得的算术平均值,无法直接显示具体数值,建议适当修改;对于引用文献[54]的《普通混凝土力学性能试验方法标准》GB/T50080,目前该标准已废止,建议作者参照最新2019版。(4)部分标题内容不适,如1.2“国内外研究状态”范围过大,第4章标题建议删除有限元名称;4.1节中内容为3种建模方式,列为4.1.1、4.1.2、4.1.3标题较不妥,建议改为序号(1)、(2)、(3);4.2.1、4.2.2标题冗余啰嗦,建议简练表述,可删除“立柱的”;4.2.2节中表述弹性模量值未与表中弹性模量值对应,建议修改以保持一致性。(5)论文中多处存在书写错误问题,建议认真核对并修改。多处出现错别字,如2.2节中“头波时”,3.3节中“3.2小结”等;多处出现文字遗漏,如6.1中“44.2”等处未写数字单位;多处存在字体格式错误,如2.3节字体设置分散对齐;标点符号书写错误,双引符号格式不统一,如4.2.1节。(6)4.3节中多为模拟数据图,针对该研究的分析内容较少,建议适当补充;有限元分析时只有云图,缺少数据图,建议适当补充;未将试验与数值模拟结果对比分析,建议适当补充该部分内容;6.1节第1点中表述不严谨,如“外观不够平整美观,而UHPC立柱可以完美弥补这些缺憾”,主观臆断较强,建议修改;6.1节中第2、3点内容中仅是设计取值及试验数据值的罗列,不宜作为论文结论,建议修改。(7)论文引用近五年内参考文献总数较少,尤其外文文献数量较少且陈旧,建议适当调整。综上,论文内容达到硕士研究生毕业要求,建议可修改后答辩。,0,1,-1,1,0,0,-1,-1,0,0,0,1,0,0 +2749,论文选题具有一定的实际运用价值。能够综合运用相关的理论知识,选择合适的研究方法。研究资料翔实,资料运用较为合理、得当,论证尚可,符合专业特点,工作量饱满。论文写作基本规范,文字表达基本流畅。主要不足之处:(1)论文摘要过多地交代了如何研究,至于得出什么样的结论提及得很少,建议摘要认真修改;(2)论文第36页让人难以阅读,仅仅是罗列数据;(3)论文所采用的一些数据分析技术若对于比较庞大的数据来说,可能更有意义,而对于只有362人的采集数据而言,这种分析所能得出的研究结论不够丰富;(4)专硕论文选题尽管要体现出研究问题来源于实践,注重应用性、职业性,但其研究也要体现出一定的学术价值或者说应用推广价值,而不仅仅是解决一个特定的实际问题。,0,1,-1,1,0,0,1,1,0,0,-1,0,0,0 +564,论文以霍姆斯的法律经验论作为研究对象,该选题具有较强的理论意义和实践价值。文章从霍姆斯法律经验论产生的社会历史背景入手,介绍了霍姆斯法律经验论的思想来源,并从理论和实践两方面阐释了逻辑和经验的内涵及两者之间的关系。作者深入挖掘出霍姆斯法律经验论对中国当代司法实践的理论价值及中国适用的条件,有自己独到的见解。文章结构合理,条理清晰,论证有说服力。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2030,随着绿色油田的推进和开发方式的转变,大斜度井、平台井的数量快速增多,传统的抽油机等有杆举升方式偏磨严重,电潜泵等无杆举升设备不适应我国低产井开采。潜油直驱螺杆泵作为一种新型无杆举升技术得到快速应用,论文选题《螺杆泵转速实时预置方法研究》进行采油螺杆泵转子转速预测方法和控制方法研究对提高螺杆泵采油作业中转速控制技术水平有一定的实际价值。 论文在参阅大量国内外文献的基础上,首先对螺杆泵转速的影响因素进行分析,选取原油温度、原油粘度、泵端压差、容积效率为输入量,转速为输出量,建立了基于改进 BP 神经网络的螺杆泵转速预测模型,并对转速进行仿真研究;在 Simulink 中建立了螺杆泵转速预置模型,对螺杆泵转速控制方法进行仿真研究。 仿真结果显示,论文建立的螺杆泵转速预测模型对转速预测具有良好的效果,其输出转速与测试转速相比,平均相对误差为 0.68%,平均绝对误差为 2.05r/min,且收敛速度较快;同时,所选择的四种影响因素可以通过传感器实时测得,能够满足螺杆泵转速实时调整的需求;论文建立的转速预置模型可以在较短时间内将电机转速调整到预测转速,并保持恒定输出,对螺杆泵转速调控具有良好的效果。 论文撰写较为规范,结构合理,条理清晰,反映作者具有较为坚实相关理论基础,具有一定独立从事科学研究的水平,论文达到硕士学位水平,同意答辩。,0,0,0,0,1,1,1,0,1,0,0,0,0,0 +1585,论文对风机偏航系统故障进行了分析,提出了一种基于特征数据提取的诊断方法,并通过仿真对其进行了验证,在实际应用中有一定的价值。论文内容围绕课题题目开展研究,研究方法得当,数据可信。通过仿真,得到了可靠的研究结论。参考文献较新,数量适中,论文写作概念清晰,外文文献所占比例适中。 论文格式方面存在部分问题,可根据论文模板进行修改提升。,0,1,1,0,0,0,-1,0,1,1,1,0,0,0 +557,论文以大数据时代我国个人信息被遗忘权问题作为选题,具有相当的价值。 论文在对被遗忘权的基本情况和发展演变进行考察的基础上,对一些国家或地区的被遗忘权立法和司法状况进行了比较,最后对我国被遗忘权法律制度的建构提出了简介和建议。 纵观全文,论文选题得当,结构合理,层次清晰,提出了一定的问题,并进行了相应的分析和论证,结论具有说服力。论文表明作者已具备相当的研究能力。,0,1,0,0,0,1,0,0,1,0,0,0,0,0 +2762,论文选题具有重要的实践参考价值,研究思路较为合理,研究方法适当,研究内容较为充实,但语言表述比较啰嗦、不精炼,长句太多(标点符号使用不当),口语化,应该通读全文,减少错误,减少错别字。论文还存在的一些值得完善的方面:1.绪论中,建议增加创新点。2.要完善国内外研究现状,非文献的简单叠加、随意叠放,要注意逻辑关系,述评结合。文献综述不够,相关研究文献过少,且文献(包括最后的参考文献部分)格式需规范、统一。3.研究意义应再凝练。3.建议增加技术线路图。4.建议第2/3章中的部分方法不需要在正文中详细阐述,可以简要概述,并展现处理结果即可。5.建议第4章部分章节融合,精炼文章结构。6.第6章结论与展望部分,需要提炼明确的结论,而非仅仅是对论文工作的总结。综合来看,该论文达到硕士学位论文水平。,0,1,-1,0,0,0,-1,0,0,0,0,0,0,0 +859," 该论文对74位高中数学教师进行了单元教学设计的现状调查研究,给出了基UbD理论的单元教学设计的一般流程,包括:分析课程标准、确定单元教学目标、选择评估证据、规划学 习活动和划分课时任务五个步骤。以平面向量的运算为例进行了基于UbD理论的单元教学设计, 初步说明UbD理论下的高中数学单元教学设计具有实用性。该论文选题符合专业培养要求,具有一定的研究价值。论文结构较合理,语言文字较通畅,格式基本符合规范。该论文达到了教育硕士学位论文水平,同意答辩。",0,1,0,0,0,0,1,1,1,0,0,0,0,0 +66,本论文对课题的设定存在问题,分析的是铸造镁合金,但是实验对象是变形镁合金;声称要在铸造过程中施加电磁搅拌,但是分析的是熔炼铸锭过程的的电磁搅拌。对AZ31的相关研究,电磁搅拌、固溶处理和深冷处理等,基本上是对现有已发表相关研究内容的重复,创新意义不大。论文需要重新考虑学科背景分析、研究课题设置到研究结论归纳的整体思路,现有论文不符合硕士论文要求,建议不予答辩。,0,0,0,0,0,0,0,0,0,0,0,-1,0,0 +2526,该生在翻译《汽车蓄电池的保养和维修》(节选)的基础上,撰写了翻译实践报告,选题符合英语笔译专业硕士培养方案。《汽车蓄电池的保养和维修》具有较强的专业性和实用性,因此该文献的汉译具有积极的实用意义,对国内汽车行业的技术人员了解国外的相关技术具有一定的参考和借鉴价值。从翻译实践来看,译者翻译工作量饱满,译文到达了忠实和通顺的标准,能够满足国内技术人员的阅读需求。译者在文本类型理论的指导下,从词汇、句法、语篇三个层面进行了详细的案例分析。通过翻译实践,译者指出针对以信息型文本为主的科技文章,译者可以根据文本类型理论,采取适合的翻译技巧,让读者真切地感受到原文的信息,这对今后翻译同类型的科技文本具有一定的指导意义。翻译实践报告逻辑清晰,表述清楚,撰写符合学术规范。该文达到了硕士学位毕业论文的水平,但同时也存在以下不足:(1)机助翻译是目前翻译实践不可或缺的环节,而本翻译实践报告并没有明确的机助翻译的相关内容。(2)作者没有明确归纳文本类型理论在翻译实践中的具体运用。(3)参考文献不够新颖。,0,1,-1,1,0,0,1,1,1,0,0,1,0,0 +949,论文通读不细,有的问题还是未发现,未处理。经过修改,选题依据比较精练、整齐、完整了;研究对象与实验对象交待也比较清晰了,界定准确;文献综述述多评少;测试工具得到校正;4.1理论基础的认识与本研究的联系与支撑关系得到建立;测试人员的资格资质得到补充确认;4.5设计与实施得到细化,层次清晰,能够看到循环层次之间的关系;附录中的教案设计得到了技术处理。整体上看,研究结构较比紧凑,研究指标间的层次关系也清晰、可靠,论文质量有大幅提高。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +893,本文以“书籍设计中应用'材美工巧'设计理念的探索研究”为题,该选题相对新颖和实用。全文结构合理,体现作者逻辑性强,思路清晰,查阅的参考文献资料符合论文要求论证内容较有说服力。对问题的分析比较透彻。表明该生在论证过程中也能很好的将专业知识与社会现实结合起来。无论从选题,还是从观点论证等方面,已经基本符合硕士研究生艺术设计学专业培养目标要求。但文章在创新性方面,仍略显不足。总体上该问基本达到毕业论文要求。,0,1,1,0,1,0,0,0,1,0,0,-1,0,0 +2882,论文在研究碳排放权相关理论基础、界定碳排放权资产属性问题的基础上,研究我国区域碳市场发展现状及碳排放权价格的发展水平,基于价格波动率改进B-S模型,建立改进的B-S优化模型,并湖北碳市场为例,研究碳排放权价格波动性和价值评估模型应用。论文选题具有较强的专业性,写作框架设计合理,文献引用适当,研究对象的选择具有一定的代表性,对问题的分析也比较到位,建议措施基本可行。表明作者在本领域已掌握较坚实的基础理论和宽广的专业知识、具有较强的解决实际问题的能力、具有良好的职业素养。文字、图、表等符合规范。论文达到硕士学位论文水平。修改建议:1、摘要第三段,应为介绍本文的研究内容与研究成果,不宜用首先来开头,其次、最后这样的词也最好不要出现在摘要中,直接介绍本文的研究内容和研究成果就可以。如果觉得这段的内容太多,可以分成两段写,比如把研究表明开始的内容另起一段。2、第二章的题目不能涵盖下面的内容,建议将题目改成相关概念与理论基础。3、研究背景中的内容有点啰嗦和重复,建议对内容进行简练,并尽量集中在碳排放权价值评估这个领域上。4、第9页,研究内容的总括介绍那段,有点啰嗦,应尽量准确提炼概括本文的研究内容。,0,1,0,0,1,1,1,0,0,0,0,0,0,0 +2889,论文针对发动机状态评估与故障诊断展开研究,分别提出了投影寻踪数据融合方法和特征映射神经网络数据分类方法,提高了系统运行的可靠性。建议:1、图1-9是本文的结构或内容的安排。并非是发动机状态评估与故障诊断方法的研究研究思路。2、图3-9(a)与(b)一个有边框,一个没边框,应统一。3、3.5节对比分析中,应该介绍的是实验方法或结果的对比分析,不用在此部分具体介绍SVM支持向量机方法及投影寻踪算法的具体特点,其特点可以放到文中其他部分。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +2664,论文具有一定的现实应用价值,选题较为合理,有一定逻辑能力。但论文创新不足,将市销率法用在某一个半导体公司,且前人也有相关研究。主要存在如下问题:1、论文格式不符合规范,按照教指委论文指导意见,章节小节,应该是1、1.1、1.1.1等2、第6-7页关于半导体企业价值评估研究,选用EVA、实物期权等方法,也都给出了合理化建议,为何你认为市销率法更好?没有对上述论文的方法进行论证3、第11页“市销率法作为市盈率法和市净率法的后备军,比较适合一些初创型企业”,而论文所选择公司是成长期的,前后矛盾。4、第17页小结无法说明论文的创新性,引用的文献已经提出运用市销率法对半导体企业估值是合理的(引文41),本文就是用了一个具体的公司进行分析,没有合理论证市销率法使用半导体公司的科学性。5、没有详细论述主成分分析选择的可比公司更具客观性,结论不具有说服力,0,1,0,0,0,0,-1,0,1,0,0,-1,0,0 +614,论文针对高推力密度圆筒型永磁直线电机温度场分析与改进设计展开研究,选题具有较好的研究价值。论文首先分析了圆筒型永磁直线电机的热源分布及该类型电机的损耗,利用ANSYS软件,建立了所研究电机的电磁场和温度场模型,仿真计算了该电机的瞬态和稳态温度场。提出通过降低电机绕组电流及增加气隙磁密来保证电机电磁推力性能,并降低系统铜耗的设计方案,通过仿真计算对所提策略及方案进行了相应验证。 论文写作质量一般,工作量一般,反映出作者具有一定的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意修改后答辩。,0,1,0,-1,1,1,0,-1,0,0,0,0,0,0 +414,论文对电动汽车用永磁同步电机的优化设计及应开展研究,选题具有重要的学术价值和实用价值。 论文的主要工作和创新点如下: (1)对永磁同步电机方案进行了仿真分析,为了优化转子的磁极结构,采用“双一”字型结构,使电机的磁阻转矩占比增大,提高电机扭矩密度。 (2)得出了永磁同步电机的本体优化设计方案,转子磁路设计、绕组参数的设计方案,对比了“V”型磁钢结构与“双一”型磁钢结构,对比电机最大效率和高校区范围的影响,优化电机的转矩脉动。 (3)制作了样机,运用AVL试验台架测试了电机的额定及峰值的外特性参数、效率MAP数据、温升数据,验证了方案的可行性。 论文工作表明作者在本学科内具有比较坚实的理论基础和系统的专门知识,具备从事科学研究工作的能力。论文概念清晰,表述清楚,达到了硕士学位论文的水平。,0,1,0,0,1,1,0,1,0,0,0,0,0,0 +1461,该文针对基于光纤光栅传感的轴承故障监测开展研究。通过滚动轴承故障实验平台,将光纤光栅传感技术和声发射技术相结合,采集了滚动故障轴承的相关数据;对不同封装材料的光纤光栅传感器的选取和故障轴承声发射信号的特征频率的提取展开了研究,提出了基于集成经验模态分解和希尔伯特包络谱相结合的算法,获取滚动轴承故障特征频率。实验验证了所提方法的可行性和有效性。对轴承故障诊断工程应用有一定的指导意义。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1702,论文选题符合专业培养目标要求,有一定的现实意义,论文以JY石油化工公司为例,对其财务风险进行识别和分类,并利用层次分析方法和改进的功效系数方法对财务风险进行评价,发现问题,并提出相关对策建议。论文整体框架较为合理,概念清晰,分析较为严谨,体现了作者较为扎实的专业理论功底,且具备独立从事科学研究的工作能力 。 论文达到专业硕士学位论文水平。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +937,论文对分组分层教学法在高中生物学教学中的应用开展了研究,分析了分组分层教学法的国内外研究现状、理论基础、分组原则,并开展了教学实践,通过纸笔测试、访谈等方法对教学实践的结果进行了分析,对研究不足进行了一定的总结。论文总体结构比较合理,写作较为规范,作者基于教学经历,对分组分层教学有一定程度的客观认识和思考并在论文中呈现,论文对于一线高中生物教师及中学生物教学研究者具有较好的参考价值,但论文篇幅略显不足。 ,0,1,1,-1,1,0,1,0,1,0,0,0,0,0 +352,激光熔化沉积过程的快速冷却条件会在12CrNi2V 钢内部引入残余应力和高体积分数的非平衡组织,严重影响产品的使用寿命。因此,通过后续热处理消除上述不利影响对于充分发挥激光熔化沉积 12CrNi2V 钢的性能潜力具有重要的现实意义。本研究利用激光熔化沉积技术在 35CrMo 基板上成功完成了 12CrNi2V 钢样品的制备,并研究热处理对激光熔化沉积 12CrNi2V 钢组织及性能的影响,得到许多积极的成果。 论文思路清晰、内容充实、观点明确、论据充分、论证严格,整篇论文的逻辑性强,层次清晰,结构合理,文笔流畅。,0,0,0,0,0,0,0,1,1,0,0,0,0,0 +630,论文针对精密加工领域的高精度进给平台的需求,开展了直接驱动和直接悬浮的电励磁直线电机磁悬浮进给平台的研究,选题具有较好的理论意义和实用价值。 论文在电励磁直线同步电机的结构和工作原理分析的基础上,针对悬浮系统推导了电励磁力的解析表达式和进给子系统与悬浮子系统的耦合关系,开展了基于距离型模糊控制器的控制器系统设计,并通过仿真对比研究了系统的动、静态特性,最后开展了悬浮控制系统的硬件设计研究。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2987,型钢混凝土结构具有承载力高、抗震性能好等优点,受扭是结构的一种基本受力形式,论文“焊接栓钉型钢混凝土柱压扭性能试验研究及承载力计算”的研究成果可为型钢混凝土结构的工程应用提供更为全面的理论依据和技术支持。选题具有良好的理论意义和工程应用价值。论文文献阅读量合适;所用资料、实验结果和数据可靠;论文工作量适中;研究内容恰当;研究方法与技术路线正确;论文整体写作规范、逻辑性好;但尚有以下方面需修改完善:1.标点符号使用应符合《标点符号用法》GB15834-2011。文中用词、措词等应以最合理为原则选用。2.中文摘要尚应进一步凝练与修改完善,翻译而成的英文摘要也应进一步修改完善,翻译应贴切。3.尚存在少量错别字、同音字、重叠字、语句不通顺等情形,认真通读全文,需进一步修改完善。4.论文结论宜应进一步凝练完善。5.仔细检查参考文献格式是否按国家标准《信息与文献参考文献著录规则》(GB/T7714-2015)书写?参考文献标注信息是否完整?个人认为该论文达到硕士学位论文优秀水平,同意组织答辩。,0,1,0,0,0,0,-1,0,1,0,0,0,0,0 +2689,论文围绕随迁儿童的情绪管理议题,以整合社会工作介入展开研究论述。主题鲜明、结构清晰、论证合理、立足本土实际,具有现实意义。(1)论文选题符合专业要求。回应随迁儿童问题与需求,以社会工作方法综合介入为主线。一方面,直面服务对象问题与需求,以专业方法介入寻求服务对象成长与改变;另方面,总结提炼个案、小组、社区综合介入方法经验特色,推进随迁儿童情绪管理的社会工作专业化发展方向。(2)立足本土社区实践,梳理总结随迁儿童情绪管理的社会工作综合介入模式,展开随迁儿童情绪问题可行性实务研究。思路清晰、结构合理、观点正确。整合社会工作方法介入在全面系统性方面有较好的体现,个案、小组、社区分别论述略显深入不足,在融会贯通方面给予更多的关注会更好。同意答辩。,0,1,0,0,0,0,0,0,1,1,-1,0,0,0 +1421,该硕士学位论文《基于双圆加权逼近法的H型平台轮廓控制研究》设计了一种自适应双层交叉耦合控制器,以提升直驱H型精密运动平台的控制精度,研究内容对减小H平台的轮廓误差具有较大的现实意义。本文在对H型平台的误差分析较全面,基于分析得出了先提升单轴控制精度,再提升平台控制精度的研究方向。论文针对单轴运动设计了自适应鲁棒控制器,针对平台多轴协同运动设计了自适应双层交叉耦合控制器。在设计控制器的过程中有理有据,科学可靠;对仿真结果分析时,能够作对比分析,学术作风严谨。,0,1,0,0,0,0,0,0,1,0,0,0,0,1 +2835,论文以福利院患病老人自我价值感提升为研究主题,以符号互动论和活动理论为基础,经过文献梳理分析了患病老人自我价值感低下的现状和原因,及患病老人的心理需求。基于此,用小组工作的方法对患病老人从生理价值感、心理价值感、人际价值感和心理价值感进行介入,并提出了对策和建议,其意义是毋庸置疑的。论文写作规范,思路清晰,逻辑分明,文笔流畅,达到硕士学位论文水平。主要的不足和建议:一是,论文中提到“心理需求、精神文化需求、自我价值感”这些概念的具体含义是什么,这些表述之间是什么关系?如果有相同意思的概念尽量用同一种表述;二是,小组目标之一是改善患病老人的身体状况。但是生理价值的提升和生理状况改善是两个概念,仅通过六次小组活动就能改善老年人日积月累的慢性病吗?这一目标有点超出社会工作者的能力范畴,改变对健康的认识和态度会更恰当一些,即老人是怎么看待自己的健康状况的,这里可以引入健康老龄化的概念(健康是让剩余能力得到有效发挥,而不是没有疾病),引导老人更关注自己能发挥什么能力而不是关注失去什么能力。,0,0,0,0,0,0,1,1,1,0,0,0,0,0 +1323,该论文文以图像检测风电叶片的损伤缺陷为选题,具有一定的实用意义,有助于推动风电事业的发展,对清洁能源发展具有积极作用。 该论文以风电叶片表面缺陷图像去雾、去运动模糊以及内部缺陷的红外热波图像检测技术为基础,研究了一种叶片缺陷检测技术。针对风电叶片图像拍摄环境多有雾气、运动中拍摄多有模糊、热像仪拍摄风电叶片内部图像也有运动模糊的情况,提出了先去雾,再复原的图像处理方法。针对内部的缺陷也提出了三种不同的检测方式。解决了论文开始提出的问题,研究成果具有一定的创造性。 论文篇幅符合硕士学位论文要求,有一定的个人见解。文题相符合,论点突出。语言表达流畅,格式符合规范要求。,1,1,0,0,0,0,0,0,0,0,1,0,0,0 +1757,论文研究了复杂家庭环境物体识别和位姿估计问题,选题机器人机器视觉领域,具有很好的工程意义,和一定的参考价值。 论文给出了多特征模型库的识别算法,以及基于优化的局部特征描述子的位姿估计算法,进行了实验验证,研究方法具有可行性。 总体而言,论文工作量比较充实,结构较为合理,撰写比较规范,反映出作者具备了本专业基础理论知识,具有一定的从事科研的能力。,0,1,0,1,1,1,1,0,0,0,0,0,0,0 +2003,涉外定牌加工商标侵权问题是近年来理论与实践中争议较大的问题,不同法院就此问题作出的判决也存在较大分歧。因此,论文以此作为选题,具有较为重要的理论意义与实践价值。 论文综合运用了实证分析法、案例分析法等多种研究方法,从主观、客观、主体、客体四个维度对涉外定牌加工所涉及的商标法理论问题进行了详细分析,在此基础上提出了完善建议。 论文论证较为充分,论点、结论基本正确。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +122,本文通过对 宝马 新 5系测试车进行不同工况及不同路面情况下的车辆内部噪声测试分析, 采用正常测试车与故障对比的方法采集多组样本数据,通过分析不同路面情况下车内噪声声压时域曲线, 以及运用频分析确定主要噪声源的研究,选题有意义,并有工程借鉴价值。 在实验部分建议补充所用的传感器的品牌精度等参数的表述,布置传感器也应该有一个具体说明在那里布置是有效的或者是常规的方法。第4章多幅截图单位模糊,例如4.4,正常车辆与故障车辆的定义不准确,路面的表述不科学,应该尽量量化或详尽,也可以补充附图来增加读者的主观定位,例如:“正常测试车与故障测试车通过第二个石子路(凹凸程度很大)” 这同类问题在答辩前统一整改,否则论文将失去工程借鉴价值。 摘要中评价“十分准确”,缺乏严谨试验设计与科学论证。,0,1,0,0,0,0,0,-1,-1,0,0,0,0,0 +1320,该论文围绕风电叶片缺陷红外热像数值分析的选题开始研究与分析,主要内容包括风电叶片缺陷红外热像理论基础的分析和回顾,风电叶片缺陷微元三维建模,风电叶片缺陷红外热像数值分析等。论文的选题很好,与检测技术与自动化装置的专业领域紧密结合,有创新性和实用价值,也有较深的理论深度。文献综述环节,对本论文选题领域的国内外的发展动态的掌握一般。从论文的研究内容上来看,较好的掌握本专业领域理论基础和专业知识,对行业及研究领域有较深的认识。研究的技术手段有新颖性,研究方法合理。研究成果在相关领域有实用价值和指导意义。从论文中,可以反映出作者具备了较好的专业素质,具备一定的综合运用专业理论、方法和技术手段来分析、抽象、解决实际问题的能力。论文的习作有逻辑条理性、层次性和表述准确性,图标规范。,0,1,-1,0,1,1,1,0,1,1,1,1,1,0 +1978,美国合同法是判例法的典范,合同法重述则是判例法与法典化之间的一种发展。合同效力是合同法的核心问题,论文以美国合同法上合同效力的影响因素为研究对象,对我国民法典的实施,具有一定的启示意义。美国法上能对合同效力产生决定性影响的因素有十余种,非法合同、未成年人和受法律保护的成年人、胁迫与不当影响、误述、显失公平、错误、情势变更、合同修改、公告政策、反欺诈法等等。论文以美国合同法上影响合同效力的相关因素为基点,结合美国案例,在缔约能力、错误、胁迫、显失公平等制度上,做了较为详尽的基本介绍,亦进行了相应的评价,但是对我国立法和司法实践中存在的现状落笔较少,缺失对相关理论的比对论述,因此提出制度完善的建议显得比较空乏。 论文选题具有较好的法律现实意义,篇章结构层次分明,安排基本合理,资料翔实,对美国合同法理论、经验、实例进行了分析论述,体现了理论结合实际的能力, 提出的观点具有一定的法律上的理论价值和实践意义。注意写作规范的严谨性,错别字不少,希望能够自行认真研读一遍,修正错别字。,0,1,0,0,0,0,-1,0,1,0,0,1,0,0 +1333,该论文选题具有较强的现实意义,乡村文化建设是乡村振兴的重要内容之一,马克思主义文化观对乡村文化建设具有直接的理论指导意义。该文以马克思主义文化观为理论视角,以新时代背景下的乡村文化建设为研究主题,针对文化建设过程中发展的必要性、取得的成就、产生的问题做了一定的探究,并对推动乡村文化文化建设进行了一定的路径探索。论文逻辑结构层次清晰,专业理论知识较为扎实,论文工作量较为饱满,体现了一定独立科研的工作能力。,0,1,0,1,1,1,0,0,1,0,0,0,0,0 +1223,本文针对中小离散制造型企业生产车间,研究并设计开发了一套智能制造车间云MES系统。论文主要工作如下: 1、针对中小离散制造型企业的特点,梳理了其业务流程,并根据业务流程进行了需求分析,完成了系统的功能与非功能需求并对功能进行了用例建模,绘制了用例图。 2、针对多目标柔性作业车间调度问题进行了问题描述,建立了优化目标与约束条件。将模拟退火算法引入到NSGA-III算法,设计了混合模拟退火NSGA-III算法并使用车间实例数据对问题进行了求解,引入解集覆盖率与反世代距离等多目标优化评价指标,验证了本文算法的有效性。最后根据AHP-TOPSIS决策方法对Pareto解集求出决策解,用于实际生产调度。 3、根据需求分析,设计了系统的整体架构,对各功能模块进行了详细设计,包括具体功能、流程设计、类设计等。对系统整体的数据逻辑进行了梳理,构建了整体E-R图并对数据库表进行了详细设计。最后对数据采集接口协议进行了设计,规定了数据传输格式。 4、使用B/S架构与前后端分离的软件开发模式实现了所设计的系统所有功能模块,包括系统服务端、系统界面等,最后在云计算平台下对系统所有功能进行了测试,证明了系统的可行性与有效性。 论文结构合理,文字表达清晰,论证正确。,0,0,0,0,0,0,0,1,1,0,1,0,0,0 +216,该毕业论文使用复合菌系对磺酰脲类除草剂进行降解,利用高通量测序技术探究了复合菌系的组成结构,研究了除草剂的提取方法和高效液相色谱的测定方法,复合菌系对12 种磺酰脲类除草剂的降解情况,复合菌系降解除草剂的半衰期及改变环境因素对降解率的影响,复合菌系应用于实地土壤中的情况。该硕士论文选题具备较好创新性,论点、结论和建议可能有一定的潜在理论意义和实践价值,文献综述比较充分,数据、材料的收集、论证、结论合理,工作量较充实,学风端正,且发表了学术论文,该论文达到了硕士毕业水平。,0,1,1,1,0,0,0,0,1,0,0,0,0,0 +1684,论文通过对伺服冲压电机轴承故障分析,振动信号的采集和故障特征的提取,进而提出了故障识别模型,选题有一定的工程实用价值,通过查阅文献资料,对研究方向上的相关技术做了一定综述,但对存在的问题归纳不足,缺乏凝练。针对伺服冲压生产线的废料电机开展振动测试,提出了信号降噪的改进方法和故障特征的提取方法,利用优化向量机进行了轴承故障识别。论文工作量适中,书写较规范,理论分析严谨,技术方法合理,表明论文作者已具备一定的科研工作的能力,具有较好的理论基础和掌握一定的专业知识,论文基本达到硕士学位论文水平。,0,1,-1,1,1,1,1,1,0,1,0,0,0,0 +27,1. 全球化背景下,跨境并购逐渐成为我国企业发展的趋势之一,如何选取适当的并购融资方式,对并购是否成功起着关键作用。因此,本文的研究对我国企业跨境融资方式的运用有一定实践意义。 2. 本文基于微观企业和影响融资方式的因素等角度,对跨境并购融资进行研究,并结合国内外较典型的案例深入分析,有一定的创新性。 3. 本文采用文献研究、案例研究等方法,对国内外研究以及相关理论基础进行较为细致的梳理,资料收集较为详实。文章着重分析几个较典型的跨境并购融资案例,归纳其融资方式选择的影响因素及财务影响,并提出改进意见,文字叙述较为深入,写作论据较为充分,逻辑顺序较为严谨。 4. 本文用语较为规范,段落层次较分明。,0,1,0,0,0,0,1,0,1,0,0,1,0,0 +2422,该课题符合我国国情,针对我国丘陵山地农用机械自动化、智能化程度低的问题,提出了履带式动力底盘控制与视觉导航研究的课题,对我国农业装备自动化的发展有很大的价值,更对我国农业技术的发展起到了推动作用,在参考国内外相关学术文献和理论研究的基础上构建了研究内容,其选题具有一定的理论价值和现实意义。该课题进行了履带式动力底盘结构设计,CAN总线分布式控制系统、应用机器视觉技术,通过计算机图像处理得到导航线等工作。该课题中虽然完成了对整机模型的绘制,但是对农用车辆在复杂工况作业时简化了较多要素,存在一定理论偏差,未能完成物理样机的试制以及实验研究,且论文的整体逻辑联系不够密切。作者在履带式动力底盘控制与视觉导航研究的过程中,大量查阅和阅读了国内外的文献,能够灵活运用已学知识解决课题中遇到的问题,具有较为扎实的专业理论基础和较强的从事科研工作的能力,基本达到硕士论文水平。部分语句表述不够通顺、图片不够清晰、论文格式存在较多不规范之处,建议进一步完善。,0,0,1,0,1,1,-1,-1,0,0,0,0,0,0 +2004,神经网络架构对于获取神经网络的组织方式和神经网络的各部分类型及功能非常重要,送审论文具有一定的理论意义和应用价值。 论文的主要工作及创新点如下: 1、提出使用序列生成方法来选择网络架构当中各节点类型的思想,使用Seq-GAN模型实现网络架构中节点类型选择。 2、通过拓扑结构生成算法来规避重复的实验内容,通过两步生成—树生成和图生成过程。实验证明了该方法可以进一步提升网络准确率。 3、实现里从单输入节点开始的完整网络架构生成,网络层类型从序列生成网络给出的结果当中选取最优的前若干个,组合不同的位置进行树状架构搜索。树状架构搜索的结果进行图生成过程。 论文基本达到了硕士学位论文水平,需修改后答辩。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2231,1.该论文的选题符合专业的培养方向,论文结构合理,关注的问题具有一定的理论价值与实践价值。该论文论证过程较为严谨,能较为熟练地掌握研究工具和研究方法。2,该论文的英文摘要翻译还不够精致,需要翻译后认真核对。建议翻译后,找专业人士斧正。3.论文的行文用词需要精雕细琢,不建议使用“本文”类词汇。4.算例过程并未交代清楚,导致结论存疑。建议该论文作者详细交代算例写作过程。5.论文行文过程中出现了许多长句,建议不要过多使用长句,并尽力使语句通顺。6.该论文创新较弱,无明显创新。建议论文作者认真归纳、提炼论文创新之处。论文总体上达到硕士学位论文水平,同意修改后参加论文答辩。,0,1,0,0,0,1,0,-1,0,0,0,-1,0,0 +2815,论文以《某品牌汽车维修手册》中的汉语无主句为研究对象,运用顺应论并结合汽车英语的文体特征进行翻译实践,选题符合技术翻译学科要求,有现实意义。论文能够围绕《手册》中的无主句展开分析论述,举证详实,论述清晰,层次分明,重点突出,但结论部分中的主要发现过多谈论译者问题,和论文主题略有脱离;论文整体撰写规范,但有少量语法错误如第8面(2)下面的句子,Forexample,Englishpreferspassivevoicetochinese,especiallyinenglishfortechnologyandscience。此处to后面应该是activevoice而不是Chinese.第9面2.3.1中的,Theconsistencyofeachtitlewiththecontentspage,这个地方表达不清楚。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1574,论文从电动汽车充电负荷预测及对配电网影响展开研究,具有较好的研究意义和实用价值。针对电动汽车发展规模、用户的出行行为以及电动汽车的性能都会对其充电负荷产生影响,本文多角度分析了电动汽车充电负荷的影响因素,提出了一种基于神经网络的电动汽车充电负荷预测方法,研究了其对配电网负荷峰谷值、电能质量的影响,具有很好的创新性。论文撰写整体结构合理,从电动汽车充电负荷预测到其配电网影响撰写过程具有较强的逻辑性,反映出作者具有较好的研究基础,具备独立从事承担科研工作的能力。撰写的硕士研究生论文达到了硕士学位论文的要求,特推荐参加答辩。,0,1,0,0,1,1,0,0,1,0,0,1,0,0 +539,论文研究实心转子异步电机的电磁场及参数研究,选题具有一定理论及实用价值,论文所做主要工作如下: 1)基于有限元分析软件对开槽实心转子异步电机进行了磁场分析及电机性能计算; 2)分别用解析法和单位磁阻法进行了开槽实心转子异步电机转子的参数计算; 3)分析了开槽对实心转子异步电机性能的影响。 论文学术水平一般,写作较规范,工作量一般,建议修改后申请答辩。,1,1,1,0,0,0,0,0,0,0,0,0,0,0 +353,激光增材制造零部件其性能和组织的均匀化难以保证,热处理是克服上述难题的重要手段。本文作者针对激光同轴送粉增材制造TC4成形件,进行固溶时效热处理对成形件组织与性能影响的研究,结果表明,在最佳增材制造工艺参数下,计合合适的固溶时效热处理工艺,能够明显提高成形件综合性能。研究结果对实际生产具有重要的理论指导意义。 论文选题结合生产实际,研究内容丰富,试验方案合理,机理分析深入,写作较为规范,反映出作者较好低掌握了专业基础知识,能够理论结合实际分析和解决实际问题,具备了独立从事科研工作的能力。 论文达到了学术硕士学位论文要求,同意答辩。,0,1,0,1,1,1,1,0,0,0,0,1,1,0 +1580,论文对J银行H分行现有的中小企业信贷业务的现状、中小企业信贷业务的操作流程以及信贷业务的风险进行了分析,并针对J银行H分行中小企业信贷业务的风险评价结果提出了控制策略,论文选题具有一定的应用价值。论文结构较为合理,论述较为清晰,选用的分析方法具有较好的科学性,体现了作者具有较好的理论基础和分析写作能力,论文达到毕业论文要求,建议提交答辩。,0,1,0,0,0,1,0,1,1,1,0,0,0,0 +366,利润质量是利润形成,利润的来源,利润中包含的现金流,利润的结构,利润结果等方面的综合结果。利润表中的“利润”高低并不能代表利润质量的优劣,高的 “利润”也可能存在劣的“利润质量”。近年来,财务丑闻(如安然,世通,以及中国的红光实业、银广厦、蓝田股份等)接连发生,使得投资者开始意识到报表中的高利润并不意味着利润的实现,上升到业务层面伴随的可能是低利润质量。现有国内外相关文献主要是研究企业的利润质量或者盈余质量,而对于商业银行的利润质量研究较少。作者以“盛京银行利润质量评价及提升策略研究”为选题,具有一定的理论和实践意义。作者构建了盛京银行利润质量评价体系,运用层次分析法确定了利润质量的指标权重,并运用功效系数法计算得到盛京银行利润质量综合得分,得出了具有一定参考价值的研究结论,并提出了提高利润质量的相关建议。通过论文反映作者具有坚实的学科知识,具备一定独立从事科学研究能力。论文结构合理,逻辑清晰,写作规范。,0,1,0,0,1,1,1,0,1,0,1,0,0,0 +779,医院空调系统运行是“耗能大户”,作者对沈阳地区医院空调系统使用状况进行了调研,选取某综合医院的门诊楼和病房楼作为研究对象,采用正交试验与分析软件模拟相结合的方法,对能耗影响因素进行显著性分析,建立了空调系统能耗指标与主要影响因素之间的线性回归模型。 论文的研究成果对类似空调系统的节能设计与能耗监测提供了较好的参考。论文完成的工作表明作者有较强的独立从事科学研究的能力。 论文表述条理清楚,逻辑性强,分析严谨,得出的结论合理,格式符合规范,达到了硕士学位论文的要求。,0,0,0,0,0,1,1,1,1,0,1,1,0,0 +2259,"本课题研制了一种简洁型远程康复训练机器人,分析了康复机器人的结构设计和控制系统部分,提出了一种多传感器信息融合的模型来判断病人的运动姿态,从静态和动态两个角度论证了康复机器人在使用过程中的稳定性问题,通过仿真软件和样机实验结合的方式对康复机器人进行分析,验证了该康复机器人技术的可行性。本论文写作规范、层次分明、逻辑严谨,使用的理论方法正确,结果可信。论文作者基本具备从事科研、设计的能力。论文达到硕士了硕士论文的要求。建议如下:(1)第一章对康复训练机器人的发展现状、问题和趋势分析对比不够深入,建议补充。(2)“2.1康复治疗方法”标题太大,与本研究的关系不够鲜明;(3)论文的内容很多,包括整体结构设计、机械系统设计、控制系统设计、稳定性分析等,但是对自己重点完成的独立工作介绍不够。远程系统是不是你开发的?控制器算法是不是你自己做的?现在这个写法是在介绍康复训练机器人系统,没有说明白你做的工作,特别是第二章和第三章。(4)基于人体工学的康复机器人设计及稳定性分析[J].2021.10.29.(第一作者)论文应该给出期刊杂志名称。",0,0,0,0,0,1,0,-1,1,1,0,0,0,0 +1798,论文以大规模电池储能系统为研究对象,分析了储能电池类型对系统全寿命周期成本和度电成本的影响,并对储能削峰填谷的有功功率优化控制策略开展研究,具有一定的理论意义和参考价值。 论文完成了以下主要工作: 1、建立了大规模储能系统经济效益评价模型。。 2、分析了储能电站全寿命周期成本和不同类型储能电站的度电成本,以储能系统年收益最大和光伏电站弃光量最小作为优化目标,对储能系统容量优化配置方案进行了研究。 3、基于变参数功率差控制技术对储能系统有功功率优化控制策略进行了研究,在兼顾储能电池SOC状态的情况下,实现了储能系统参与削峰填谷的要求。 论文撰写结构完整,叙述清楚,数据较可靠,格式基本符合规范。论文作者具有比较扎实的基础理论和专业知识,具备一定的从事本学科科学研究工作的能力,同意答辩。,0,1,0,0,1,1,1,1,0,0,0,0,0,1 +1268,多能协同集群是目前研究的热点,选题具有较大的理论和实践意义,研究对象和目标明确,具有一定的研究可行性,文献较为翔实、权威,综述较全面。 本文构建了多区域能源集群互联系统模型及需求侧响应模型,在此基础上提出了一种考虑需求侧响应的区域多能源互联系统调度策略,实现实时滚动修正,具有一定的创新性;搭建了多区域能源集群互联系统仿真模型,对所提模型及策略进行了仿真验证。研究成果反映出本文作者掌握研究领域内的知识体系和相应的理论;文章结构较合理,论证较充分,研究重点明确,研究内容较深入;仿真验证数据较准确,结论基本正确。 论文的写作层次清晰,文字精炼准确、较流畅;格式符合规范要求,文字、符号使用基本正确。 综上所述,本文作者到达了硕士学位论文的要求,同意答辩。,0,1,1,0,1,0,1,1,1,0,1,1,0,0 +1417,该硕士论文采用周期换向电絮凝(PREC)技术对模拟水溶液和阜新市天然地下水中PFASs污染进行处理研究,优化工艺条件并探究其去除机理,实现了短链PFASs的有效去除。该论文与经济建设、社会发展联系密切,具有较高的理论和实际意义。作者对该领域进行了充分的文献调研,对该领域的研究和开发现状有较深刻的了解,研究目标明确,数据详实,条理清晰,行文流畅,并发表导师一作,该生二作的SCI论文2篇,反映出作者掌握了相关基础理论知识和专业知识。该论文达到硕士学位论文水平的要求,同意该生按要求修改后参加答辩。,0,1,1,1,1,0,0,1,1,0,0,0,0,0 +523,论文研究了城市快速物流配送系统问题,使用 K-means 聚类算法与层次分析法结合对城市快速物流配送网络的节点进行选址研究,并结合利用地铁配送的特点建立了城市快速物流配送路径优化模型,选题有一定的理论和实践价值。论文结构合理,格式较规范,理论方法应用得当,工作量饱满,成果比较丰富,是一篇良好的硕士论文,同意答辩。,0,1,0,1,0,0,1,0,0,1,0,0,0,0 +934,论文的选题具有一定的实践意义,符合专业研究方向,但题目和内容存在不一致的地方,对新发展理念、新发展理念与体育社团赛事服务供给的关系理解不够深入,将新发展理念作为问题提出的背景的论述不够充分;能够围绕研究问题进行一定的文献综述,但对核心问题的理解不够深入;研究方法的选取符合研究目的需要,但论文的主要内容未能体现调查研究的结果,调查的工作量不够充足,缺少一手数据和资料,主观性较强,对问题的分析和讨论流于表面,不够深入。,-1,1,-1,-1,0,0,0,0,0,1,-1,0,-1,0 +768,选题意义方面,该论文选题具有较大的理论意义和实用价值,文献阅读较为广泛,综述较为全面,基本掌握了本学科及相关学科领域的学术研究动态。 论文创新点方面,该论文展示了作者较强的独立从事科研工作的能力,论文立论正确,创造性成果较为突出。 学科知识掌握方面,论文展示了作者具有较为宽广的理论基础和深入系统的专门知识,实验方案严谨,技术路线可行,测试手段丰富,结论分析准确。 写作规范性和逻辑性方面,论文条理清晰,层次分明,文图规范,描述准确。,0,1,1,0,1,1,1,1,1,0,0,1,0,0 +1846,论文以自动泊车为背景,开展了基于视觉的停车位及车位线检测算法研究,选题具有理论意义和实际意义。 论文在标定摄像机内参和确定镜头畸变系数的基础上,设计了完整、不完整以及有阴影或障碍物干扰三种情况下的停车位检测算法以及车位线检测算法,将算法移入嵌入式系统,进行了算法实现及实验验证。 论文撰写条理清楚,格式规范,基本达到了工程硕士专业学位论文水平。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +165,本文针对水泥基复合材料增强的问题,通过掺入膨润土对水泥基复合材料改性,得到了膨润土-PVA纤维水泥基复合材料。研究了膨润土-PVA纤维水泥基复合材料的流动性能和力学性能,得到了一些有益的结论。该论文选题具有较好的工程意义,论文书写较规范,研究方法较科学,得到的结论较合理。有一些问题也需要做修改和讨论。总之,该论文达到硕士学位论文标准,建议答辩。,0,1,0,0,0,0,1,0,0,1,1,0,0,0 +1491,管道应力内检测技术是目前国内外管道内检测领域的热门研究课题,选题意义较大。作者做了较多的工作,而且研究的过程和步骤符合一般的研究规律。一是理论基础较为扎实,结合磁弹性效应法检测原理研究了应力对铁磁材料的影响,对本文有了理论基础;二是进行了预先的仿真研究,利用有限元软件分析了应力集中区中应力与磁信号的分布特征及分布规律,可以最大限度的指导实际实验,避免时间和财物的浪费;三是实际条件下的实验验证,搭建合适的实验平台,而且将磁测法和成熟的应变片方法对比,通过实验数据的分析,看出作者的研究取得了初步效果。 纵观整篇论文,反映了作者对本学科的研究动态了解较为全面,掌握了科研的一般规律,实验设计满足研究要求,实验结果分析说服力强。论文撰写条理清楚,文字表达能力较强。同意该论文答辩。,0,1,0,0,1,0,0,1,1,0,0,0,0,0 +1595,论文对辽宁JS农业公司的盈利质量进行了量化评价,根据量化评价分析盈利质量存在的问题,并提出了提升JS农业公司盈利质量的对策。 论文选题对提高企业盈利质量有一定的现实意义,对国内外研究现状的梳理比较全面,但缺乏针对研究现状存在问题的分析,论文的立意不明确;论文的创新点表明,结合民营农业企业自身的发展情况制定盈利质量评价体系,后面指标的选择最好能够结合民营农业企业的情况进行;论文对JS公司盈利质量的分析基本合理,提出的改进建议具有一定的参考价值;论文结构基本合理,文字表达流畅,符合毕业论文的基本格式规范要求。,0,1,1,0,0,0,0,1,1,0,0,0,0,0 +1197,本文以石油筛管的条形开窗为研究对象,利用红外热成像技术及红外图像处理技术建立了筛管条缝在线检测系统,通过对石油筛管热图像的获取和处理,设计相关图像增强处理算法,得到条缝的宽度信息,并搭建了实验环境,进行了外加涡流脉冲检测实验,论文提出的检测方法有一定的新颖性,论文对本学科及相关领域的总结比较全面,所依据的理论正确,有一定的学术水平和应用价值。 论文条理清楚,内容完整,格式基本规范,材料组织合理,资料详实。符合硕士论文要求。,0,0,0,0,1,0,1,0,1,0,0,1,0,0 +2349,本文依托柳州市柳东新区安泰路隧道项目,以有限元数值模拟分析与现场监控量测相结合的方式展开研究,对双侧壁导坑法特大断面浅埋小净距隧道施工期围岩及支护结构的力学特性、变形特征进行动态分析,系统探讨了不同开挖顺序、不同开挖进尺、不同围岩材料参数强度等因素对隧道整体稳定性的影响。作者选题具有一定的工程应用价值,论文结构布置较为紧凑,语言较为流畅,图表规范、严谨,工作量饱满,已达到硕士学位论文水平,同意答辩。论文存在的问题及不足之处:(1)对于数值计算围岩物理力学参数的确定,主要依靠规范推荐值,针对实际隧道工程,建议进行现场取样,开展室内试验确定为佳,对后续利用ABAQUS数值计算软件开展参数反演分析,得到的结论更加科学地指导隧道施工。(2)建议适当增加数值计算部分与现场监测之间的对比性。(3)超前地质雷达的内容,比重很小,建议放到工程概况部分写会更佳。(4)正文部分曲线图中坐标轴字体为非标准西文字体,建议修改。(5)p26页、p28页中的“(1)”与“(2)”串行了,建议修改。(6)参考文献中的2022年最新文献较少,建议适当补充。,0,1,-1,1,0,0,1,1,-1,0,0,0,0,0 +1122,本文从电机本体设计电机本体、功率变换器选择及电机的定、转子的结构改进和优化等方面来进行降低转矩脉动和抑制振动噪声;通过改变电机的结构,转子斜极和转子错角等与正常转子结构相对比分析,选取最佳的电机结构,来抑制振动噪声的目的。文中通过仿真验证了理论分析的正确性,具有一定的现实意义,对工程实际应用有一定指导意义。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +186,从1925年8月《斯瓦尔巴条约》生效开始,国际上有了第一个“共同开发”的条约和实践。尽管在那个条约中,中国也是共享权利的主体之一,但是自20世纪七十年代当中国再次提出“搁置争议,共同开发”后效果欠佳。因此,研究落实这个政策主张的法学意义和价值显然是重大的,特别是从多学科交叉的角度找到一个综合性的、能为周边国家接受的方案是十分重要的。因此,该选题的选点和研究方法都是值得充分肯定的。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +1003,  论文以X射线焊缝图像为研究对象,分别使用了传统图像处理和深度学习的方法对焊缝缺陷分割提取方法展开了研究,主要研究内容如下:   1. 基于非完全 Beta 函数和麻雀搜索算法的图像增强方法,进行图像增强研究,使前景和背景间的灰度差别增大,有效地提高了图像质量;   2. 使用区域分裂合并的分割方法,进行图像分割方法研究,可以得到较好的分割效果。   论文选题具有一定的理论意义和工程应用价值;作者已经了解和掌握焊缝图像信息提取算法等相关研究领域的现状;研究内容和方法设计总体上具有合理性和科学性。同意修改后直接答辩。,0,1,0,0,1,0,0,0,0,1,0,0,0,0 +1731,论文选题时间驱动作业成本法在JC电缆公司的运用。文章在深入探讨国内外相关文献的基础上,对文章涉及到的成本核算理论、作业成本法理论、时间驱动作业成本法进行详细阐述,并对时间驱动作业成本法与传统作业成本法进行比较分析。文章对JC电缆公司基本情况、组织架构、成本核算现状进行详细分析,总结其成本核算中存在的分摊依据不合理、核算方法无法反映资源利用、成本信息失真影响决策、成本控制管理存在缺陷等问题,在分析时间驱动作业成本法的必要性与可行性的前提下,构建了以目标、准则为指导的全方位成本核算方法,涉及到人才培养、机制优化、管理水平提升。此外,本文的亮点在于:一是对案例公司提出了较为完善的成本核算改善方法,预想出现的问题并提出保障措施。二是实地调研法的运用,保证了文章资料来源的真实性。 综上,整体而言,从论文规范性角度看,论文基本符合硕士论文要求。作者能够为电缆公司构建较为完善的时间驱动作业成本法体系,具备较强的现实问题分析能力。,0,0,1,0,0,1,1,0,0,1,0,0,0,1 +729,为解决生物医用镁合金的力学性能低、耐腐蚀性能较差等问题,本文以 WE43 镁合金为研究对象,采用挤压铸造工艺制备 WE43 镁合金铸锭,通过对 WE43 镁合金进行热处理以改善合金的显微组织,提高合金的力学性能;对铸态、挤压态、T4 态以及 T6 态四种状态下的合金在人体模拟体液中进行失重、pH 及电化学测试等腐蚀实验,研究了四种状态下合金的耐腐蚀性能。结果表明,改性处理后的WE43更符合医用镁合金的临床要求。 整篇论文撰写规范,论文格式正确,结构科学、书写规范,条理清晰,符合所要求的标准和规范,有一定的创新见解。,0,0,0,0,0,0,1,1,1,0,0,1,0,0 +977,"文章缺乏创新点,理论总结上尚未形成对没骨画历史整体发展的脉络欠系统深入,不够全面。美术创作实践方面的技法表达有自己的探索和收获。建议文章可加入传统绘画中荷花文化象征传承;传统绘画荷花艺术表现流变。文献综述所下的功夫不够,仅提到几部专著和教材,而对于硕博论文及期刊论文均未提及,无以支撑硕士论文的写作;所例举的研究方法不够丰富多样。文章《荷塘清趣》系列作品的创作感悟与反思,这部分内容写得过于笼统,简单不够深入;参考文献的格式应按专著、编著、译著、期刊论文、论文集中的论文、报纸文章、古籍文献、学位论文顺序排序。 文章版面较清晰,格式较规范,但部分文字内容累赘还需推敲,并增强问题表述的准确性和标点符号使用的规范性,注意键入文字的准确性。例如,P9页-6行:在创作中,更注重的是整体色调以及意境的表述,此句子无主语;P10页-2段-3行:使画面静中有动中。。。。。多了中;P11页-4行“少”许墨,少了“许”;-2行“呈”现荷叶。。。。少了""呈“。",0,0,-1,0,0,0,1,-1,0,0,0,-1,-1,0 +593,"论文在相关理论的基础上,选取上市公司作为样本,通过收集数据构建模型对高管社会资本、制度环境与公司债务违约的关系进行了实证研究,并得出结论:拥有高管社会资本越丰富的企业发生债务违约的概率较小,地区市场化水平高能降低高管社会资本对债务违约的作用。选题有一定理论意义和应用价值。 论文能够运用基础理论及专业知识进行实证分析,样本资料收集较充分,中心论题较明确,基本观点较正确,层次较清楚,实证过程较完整,工作量较饱满,与本课题相关领域的国内外发展状况和学术动态了解较全面,取得一定研究成果,体现一定研究能力。",0,1,1,1,0,1,1,0,0,0,0,0,0,0 +1279,该论文采用Ad Hoc网络和RFID技术设计了以农产品为背景的仓储管理系统,选题具有一定的理论意义和实用价值。 该论文的主要内容是针对农产品存储量大、定位调配困难的问题对仓储管理系统进行需求分析,设计系统的整体架构及各功能模块,实现仓储系统基本的入库、盘点、出库等基本功能,并在定位模块设计中建立思维优化算法优化的GRNN 网络模型,最后结合农产品仓储公司进行系统部署与测试。 论文思路比较清晰,有一定的工作量,神经网络和RFID结合的定位功能具有一定的创新性,但论文的结构不太完整,缺乏对Ad Hoc网络实现的描述,并且语言表达存在赘述。,0,0,0,1,0,0,0,-1,0,0,0,0,0,0 +877,《金上京铜镜图纹对肖形印创作的借鉴探究》一文,在相关研究成果的基础上,作者对于金上京铜镜和肖形印、肖形印创作对金上京铜镜艺术特征的借鉴、上京铜镜图纹在肖形印中的应用等几个方面进行了研究。该文选题有一定价值。但是论文框架、标题仍有不合理处,建议修改。如“肖形印创作对金上京铜镜艺术特征的借鉴”与“上京铜镜图纹在肖形印中的应用”两个标题的意思几乎差不多。此外,该文较一审时仍有很多问题没有修改。甚至基本的文献综述、文献征引、征引文献格式都没有弄清楚。此外,还有以下几方面问题,仍建议修改重新送审。,0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +717,隧道通风机是地铁的主要设施,可以在各个时段为隧道提供通风,也是防止火灾等事故发生的安全保障。在实际使用过程中,时常需要风机的正、反转快速切换。论文针对地铁隧道通风机的电动机控制策略进行了研究。研究面向当前社会发展的实际需求,具有一定的应用参考价值。 本文作者在导师的指导下,在掌握了本专业基础理论和操作技能的前提下,基于滑模控制器,设计了能够实现快速正、反转的直接转矩控制系统,并进行了仿真验证;设计了一个基于蜗杆-蜗轮,并依赖于步进电机输出调节扭矩的动叶调节结构,并进行了建模仿真。 论文在电机的控制策略方面作了一些工作,具有一定的参考价值。作者能够解决自然科学或工程技术中的一些关键问题。论文体现出作者掌握了与本学科及相关领域一定的基础理论与专门知识。论文结构较严谨,逻辑性较强。论文语言表达较准确、层次分明、图表较规范。体现出作者具有一定的独立从事科学研究的能力。 论文基本达到了硕士学位的水平,建议作为硕士学位论文安排答辩。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +2659,论文结合我国珠宝企业的特点,以企业价值评估相关理论为研究基础,在对目前常用的企业价值评估模型进行比较的基础上,针对FCFF模型中存在的不足,对该模型进行了改进。进而使用改进后的FCFF模型对周大福珠宝企业的自由现金流进行预测,计算出周大福的企业价值,并通过比较在不同评估方法下得出的评估结果,验证本文所选用的评估方法的合理性和可行性。论文选题具有较强的专业性,写作框架设计合理,文献引用适当,研究对象的选择具有一定的代表性,对问题的分析也比较到位,建议措施基本可行。表明作者在本领域已掌握较坚实的基础理论和宽广的专业知识、具有较强的解决实际问题的能力、具有良好的职业素养。文字、图、表等符合规范。论文达到硕士学位论文水平。修改建议:1、摘要中第二段关于本文研究内容介绍的部分要言简意赅第介绍本文的研究内容,而不是写先做了什么后做了什么,既啰嗦还没有准确写出本文的研究内容。2、实际意义,建议改为实践意义或现实意义。3、研究方法,本文主要采用了文献研究法、对比分析法和案例分析法对珠宝企业价值评估进行了研究和分析。下面具体介绍各种研究方法时不要用首先然后最后,改用子标题分别介绍。,0,1,0,0,1,1,1,0,0,0,0,0,0,0 +895,本选题以“商鞅爵制思想渊源研究”为题,具有重要的学术研究价值。作者对本选题现有学的术研究成果较为了解,对开展研究的主要相关史料有较为深入的研读,并作出了使用的合理性说明。整体而言,论文框架结构完整,作者的研究思路清晰,研究方法运用得当,运用史料合理得当,解释准确到位,彰显了作者较为扎实的学术功力;文章观点鲜明,语言凝练;作者尊重前人的研究成果,引用观点详明出处,行文符合学术规范与要求。本文已到达硕士研究生撰写毕业论文的要求,建议参加答辩。,0,1,1,0,1,0,0,1,1,1,0,0,0,1 +382,论文《新时代高校民主党派思想政治工作研究》,观点基本正确,结构比较合理,逻辑性较好,语句通顺。同时,论文选题和研究具有一定的实践性和创新性。作者运用马克思主义的立场、观点和方法,着重分析和研究新时代高校民主党派思想政治工作的问题及成因,并从实际出发总结了加强新时代高校民主党派思想政治工作的思路与对策:凝聚共识统一思想、共谋高校民主党派思想政治工作新气象、创新管理机制提高工作成效,这些思路与方法对加强新时代我国高校民主党派思想政治工作具有一定的理论意义和实践价值。,0,1,0,0,0,0,1,1,1,0,0,1,0,0 +732,为了解决地铁规模不断加大带来管控难度增加的问题,本文提出基于云服务的地铁电力调度监控系统设计及可靠性分析方法,论文选题具有实际应用价值。 论文首先基于云服务技术对 SCADA 系统进行设计与开发,在对地铁 SCADA 系统的功能进行平台架构、系统功能及模块划分的基础上,利用云计算虚拟化、规模较大、扩展能力较强、通用性较强等特点,建设了从硬件设施到高层软件的多层次云服务 SCADA 系统,对地铁实现高效地监测与控制,其次,在基于云服务技术的系统下分析了地铁供电模式,对集中式与分布式供电模式特点与架构进行了详细分析。最后,对设计完成的基于云服务的 SCADA 系统进行了可靠性分析。 论文条理较清楚,层次较分明,图标较准确,论文工作反映该生具有较扎实的基础理论和系统深入的专门知识,论文达到工程硕士论文水平。,0,1,0,0,1,0,1,1,0,0,0,0,0,0 +1091,本论文选题属于可降解塑料应用研究领域,是当前社会发展中值得关注的研究方向,具有较强的实用价值;其主要针对PLA在工业应用中存在的成本高、脆性大、阻燃性差等突出问题,基于改性淀粉自制了一种复合增塑剂和阻燃剂,研究了工艺因素对相关性能的影响,获得了最佳工艺参数,论文工作及相关研究结果具有一定的实用价值;论文较好掌握了本领域研究的国内外动态,对所需解决的问题论述充分准确;该论文研究以实验方法为主,实验设计较为系统和全面,对所得结果的论述分析较为严谨,论文的撰写较为规范和文字表达较为流畅。另外,在论文撰写以及个别部分的分析讨论上还存在一些不足,详见“论文的不足之处和建议”部分。,0,1,1,0,0,0,1,0,0,0,1,0,0,0 +1569,论文采用室内试验的方法,对泡沫轻质土的制备技术、物理力学性能、变形性能等进行了研究,并利用数值模拟的方法对比分析了泡沫轻质土与常规填土路基的变形特性,并对乳胶粉改性泡沫轻质土改性前后的性能进行了试验对比研究。 论文选题针对性较强,文献综述较详实,研究思路较清晰,试验步骤正确,数据真实,分析过程及结论正确,论文规范性及表达均达到硕士论文基本要求。论文的撰写表明作者具有较扎实的专业基本知识和论文撰写能力,具有较强从事科学研究工作的能力,表明作者已达到硕士研究生水平。 但论文存在题目与内容不能完全对应等问题,建议修改后答辩。,-1,1,1,0,1,1,0,0,1,0,1,0,0,0 +2181,作者选择万泽集团同时发行可的两种交换债券进行研究具有较好的研究价值。一个公司选择发行两种可转换债券,既要考虑债券可转换性,又要考虑控制权的维持。这需要发行公司做好明确的决策。 论文思路总体上来看还算清晰,研究的逻辑框架正确,研究方法基本正确,研究结论基本成立,语言表达基本通顺。,0,1,0,0,0,0,0,1,1,1,1,0,0,0 +798,在工业领域中,只要在固定件和旋转机器之间存在有液体和气体介质需要传输,人们就必然使用旋转接头这一连接件。而高速液压旋转接头以其特殊的机械结构设计、承受高压、高速以及精确控制等优点,应用范围越加广泛。但高速旋转接头在使用前,需要进行严格的检测,故研制高速液压旋转接头试验系统极为必要。作者选题来源于企业要求,符合生产实际需要,选题合理,有一定的实用价值。 作者研究了国内外现状,进行了试验系统样机的设计 、利用有限元软件对试验系统的机械部分以及液压阀块进行静应力分析,并对机械部分进行模态分析;设计了电气控制系统;建立了基于虚拟仪器数据采集系统界面。从内容看,作者对研究的问题有一定了解,能进行结构设计,但创新性不足,体现作者能掌握本专业的基础理论与基础知识,基本功相对扎实,有初步分析问题解决问题的能力。 论文结构较合理,计算较准确,层次较清楚。写作规范性稍差。,0,1,1,0,1,1,-1,0,1,0,0,-1,0,0 +2888,论文针对多智能体系统非对称二分一致性控制问题进行了研究,主要研究工作如下:1)提出了分布式事件触发控制协议,使得智能体满足触发条件时更新控制器数据,在此基础上得到系统稳定性充分条件,并且实现了多智能体非对称二分一致性控制;2)提出基于周期检测的事件触发控制协议,仅在固定的周期进行采样,从而有效避免了芝诺行为,在此基础上得到系统稳定性充分条件,并且实现了智能体状态收敛到幅值和符号均不同的非对称二分一致性控制。论文的选题与当前控制领域中普遍存在的多智能体系统紧密结合,具有一定的理论价值和工程应用背景。作者通过了解国内外多智能体系统一致性控制方法的研究动态,明确当前的理论研究方向,具备一定的分析与综合能力。作者综合运用所学的理论研究方法,运用专业知识完成了研究课题。论文研究方案比较合理,仿真结果较为准确可靠,体现出作者具有一定的从事科学研究的能力。论文条理清晰,结构基本合理,图表规范。论文修改建议:1.英文摘要的撰写还需要进一步检查,请注意表达用词的规范性;2.在仿真算例部分应与现有的多智能体一致性控制方法进行对比研究,以体现本文所提出方法的优越性;3.从整体上来看,论文的工作量不够饱满,建议增加一部分研究内容,比如控制方法的扩展与实际控制应用举例等等。论文达到硕士学位论文的要求,同意答辩。,0,0,0,-1,0,1,1,0,1,0,0,0,0,0 +1886,论文针对电液伺服系统在负载时变、扰动不定的工况下提高系统整体性能展开研究,采用了滑模控制器和负矢量控制器提高系统响应能力,引入改进负载观测器解决负载突变问题并提出整定方法。论文选题符合专业培养目标,具有较好的理论指导意义和工程实践价值。 该生对电液伺服控制系统相关理论掌握较好,能够较为全面收集相关材料,论文文题相符,逻辑清晰严谨,层次结构安排科学,主要观点突出,但缺乏个人见解。论文语言表达流畅,格式规范,内容方面有待改善。 该论文达到硕士学位论文水平的要求,同意其参加论文答辩。,1,1,1,0,0,0,1,1,1,0,0,0,0,0 +1962,论文主要研究了电力线路故障选线、故障定位、故障分类问题,以便精准地确定故障线路及故障位置,选题有意义。论文通过选取暂态高频能量作为主要特征量,结合平均电流幅值差作为辅助特征量,构建了基于故障可信度的故障选线标准;将 VMD-Hilbert 变换算法应用于故障行波波头的检测,实现了故障定位;结合 PSO-RF 算法对故障线路进行分类研究,构建了三类特征量对十种故障类型进行识别。论文取得了一定的理论成果,希望能看到应用情况。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +2209,"《动力电池技术及应用》(节选)英译实践报告选题符合专业特点,研究问题来源于作者的实践,具有一定的应用价值,能够运用翻译理论,指导翻译实践,研究报告结构完整,层次分明,但文笔不够流畅,存在表达错误,译文质量一般,需要进一步修改。1.案例中部分值得商榷,如Example15,“ofinstability”的表达不符合英语习惯。Abstract中China,startedtheresearchanddevelopmentoffuelcellsinthe1950s,haswitnessedthattheresearchanddevelopmentprospectsofdomesticfuelcellvehicleshavecontinuedtoseekprogress,语法与逻辑均不清楚2.译文中总体可读性尚可,但部分不妥,例如:原文:催化电极膜是近些年来在提高MEA性能研究中的热点。译文:CatalystcoatmembraneisahottopicinimprovingtheperformanceofMEAinrecentyears.“热点”并不能对译为hottopic.“研究”一词没有在译文中体现出来。3.关键词:论文关键词选择值得商榷。理想的关键词应包括论文研究的核心内容词汇或较为特别的研究方法等,具有较强的检索功能。“汉译英”作为关键词较弱。",0,1,0,0,1,1,0,-1,1,0,0,0,0,0 +1246,乘用车的舒适性既是广大用户的要求,也是汽车生产厂家追求的目标,论文选择电磁主动悬架的汽车平顺性模拟分析作为研究课题,对于在激烈竞争中的汽车行业的发展具有重要的理论意义和实际应用价值,同时对于机械学科的发展、现代汽车科技和社会的进步起到了积极地推动作用。 论文参阅了大量的国内外有关汽车被动悬架和主动悬架方面的研究成果和文献,掌握了国内外汽车悬架的发展动态,从而确定了自己的研究方向,明确了本论文要解决的内容。通过建立悬架系统的简化模型并用仿真Matlab软件进行模拟和上路实测的数据对比,得出有关结论,具有一定的可信度。研究者理论研究和实验工作的工作量满足了硕士论文的要求。从研究过程来看,能将理论建模与实际应用结合起来,说明对本专业的知识掌握具有了一定的深广度,具备了一定的独立从事科研工作的能力。 论文层次概念清晰,具有一定的逻辑性,结论具有一定的合理性,写作较为规范,语句通顺,基本达到了硕士学位论文的要求。,0,1,1,1,1,1,1,1,1,0,1,0,0,0 +1521,静脉血栓栓塞症在危险着人类健康,抗凝血药物成为治疗静脉血栓的 主要治疗方式,口服抗凝血药物达比加群酯是一种直接凝血酶抑制剂。论文为此开展了达比加群酯类似物的设计、合成与抗凝血活性研究,选题具有理论研究和实际应用前景。 论文在已有文献报道的基础上,通过研究总结苯并咪唑类母核结构的构效关系,根据达比加群的空间结构,设计并合成了 14 个未见文献中报道的全新的达比加群酯衍生物。采用傅里叶红外光谱(FTIR)、核磁共振氢谱(1H NMR)、质谱(MS)等检测手段完成14个目标化合物的结构确表征。并对14个目标化合物进行了抗凝活性测试的评价。 论文有一定难度、工作量适中,论据充分可靠,实验数据可信,结论可靠,表明作者有一定的科研工作能力;论文写作条理清晰、逻辑性强,文字表达流畅,表明作者具有较好的基础理论和扎实的专业基础知识。 论文已经达到申请硕士学位学术水平,同意组织论文答辩。,0,1,0,1,1,1,0,1,1,0,1,0,0,0 +1710,论文选题具有明显行业特色,针对基于多质量碰撞的动、静物体间能量传递、转移等问题展开较深入研究,结合行业实际,进行仿真与试验验证,在相关(尤其军事)领域具有较强的理论意义与实用价值。立题论述方面体现出作者对所选课题行业背景了解透彻,对所参阅文献资料掌握程度较好。所研究设计的双质量冲击放大器,结构中引入液压阻尼缓冲器,结合缓冲圈来吸收放大台动能,可有效缓解放大台与跌落台多次碰撞问题。该研究成果具有较强理论意义和创新应用价值,作者能够熟练运用本学科专业基础理论知识和实际应用技能进行相关仿真实验与研究应用,充分体现其自身所具备的独立科研能力和专业技能水平,研究方法新颖,技术创新性较好,有一定科技含量且研究工作量较充足。纵观全文,结构严密紧凑,试验过程充分、数据记录合理,试验结果真实可信。,0,1,1,1,0,1,0,0,1,1,0,1,0,0 +1295,该论文对机械臂在非结构复杂环境下自主运动规划进行了研究,提出了一种改进RRT*算法,并在相同障碍物的环境下对RRT、RRT*和改进RRT*算法进行了对比实验,搭建了机械臂基于ROS 平台的仿真系统,设计了机械臂的运动控制系统,最后对机械臂进行了仿真实验和物理实验,证明了改进RRT*算法满足机械臂运动规划的需求。论文选题具有实际意义,对本研究领域的文献资料的掌握程度较好,立题论述较为明确,论文写作较为规范,行文结构较为清晰,研究成果具有一定的创新性,反映作者较好地掌握了相关专业理论知识和具有独立从事科学研究能力。,0,1,1,0,1,1,1,1,0,0,1,1,0,0 +475,论文选题的前沿性和开创性较好,有一定的理论研究意义和价值,对国内外该选题及相关领域发展现状的归纳、总结情况较好。论文针对带有遗忘因子、不完整反馈信息、速度误差约束等问题,采用迭代学习控制对康复步行机器人的轨迹及速度跟踪进行控制研究,设计了带有遗忘因子的迭代学习控制器,通过仿真对比验证了带有遗忘因子的迭代学习控制器的有效性和可靠性;针对传感器老化、计算机数据传输有误所导致的系统反馈信息不完整的问题,设计了康复步行训练机器人的迭代学习控制器,证明了闭环系统的稳定性,解决了不完整反馈信息对机器人系统的影响问题,最后通过仿真工作证明了所设计的迭代控制器具有良好的控制精度;针对速度误差约束的问题,采用前馈差分方法对运动学的模型进行离散化,建立了康复机器人系统离散形式的预测模型,在该离散模型的基础上建立了具有速度误差约束的预测控制器,将其与迭代学习控制算法相结合,设计了具有速度误差受限的迭代学习控制器,通过仿真实验验证了具有速度误差受限的迭代学习控制器的可靠性和有效性。 论文有较大的实用价值,所提及的方法,对解决实际问题有较大的作用,论文研究方法的科学性较好,引证资料的翔实性较好。论文所体现的作者独立从事科学研究的能力较强。引文的规范性,学风的严谨性基本可行,论文结构的逻辑性要改进;文字表述的准确性、流畅性尚好。,0,1,0,0,0,1,1,1,-1,1,0,1,0,0 +1669,论文试图把磁悬浮和直线同步电动机应用与机密机床的设计。主要工作有: (1)介绍了并给出了可控励磁直线同步电动机的结构、工作机理和数学模型。建立了在d-q同步旋转坐标系的可控励磁直线同步电动机的数学模型;推导出了进给方向电磁推力的解析表达式、运动方程与状态方程;推导出了法向电磁力的解析表达式,以及悬浮方向的运动方程与状态方程;(2)设计了基于合成模糊控制器的可控励磁直线同步电动机系统。针对传统模糊PID控制器存在着三输入单输出的语言变量过多,引发控制规则过多从而使调试困难的问题,本文提出采用模糊PD和模糊积分的合成模糊控制器来实现对电机的控制。(3)运用MATLAB/SIMULINK搭建可控励磁直线同步电动机磁悬浮子系统的仿真模型并验证其有效性。与传统模糊PID控制器对比,证明该系统动态响应快、跟踪性能好且精度高,并在系统出现扰动时,合成模糊控制器可以快速消除扰动,具有良好的抑制外界扰动的能力。(4)完成了带增益调整机制的自学习模糊控制器设计并对控制系统的鲁棒性、抗干扰性和跟踪能力进行仿真研究。为进一步提高磁悬浮系统的控制精度和抗干扰能力,设计自学习模糊控制器并分析各个单元的工作原理,研究参考模型的选取原则,分析自学习机制的原理及实现方法,最后搭建磁悬浮自学习模糊控制系统的仿真模型,,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +2997,液体晃动问题广泛存在于航空航天、船舶及路面交通运输等领域,开展液体晃动的实验研究及贮箱结构的防晃设计,具有重要的学术价值和工程指导意义。本文以充液的卡西尼贮箱为研究对象进行了晃动行为和动力学特性的实验研究和数值仿真计算。文章结构完整,实验与仿真结果较为吻合,论文水平达到硕士学位论文要求。论文存在的主要问题及不足如下:1、英文摘要需要重新翻译。2、文中公式不能用连等号,每个字母第一次使用时需要给出其具体含义,如(2-1).3、书写格式及图表格式不够规范,如28页图的文字说明和本章小结的位置。4、文中多处“的”“地”不分。5、3.5实验平台可靠性验证应该定量的误差分析而不能仅仅定性分析(3.5.3).6、5.3实验方法指的是什么?针对不同防晃参数开展的防晃实验具体步骤和细节,以及抑制效果均没有描述。7、文章第六章总结不够精炼。,0,0,-1,0,0,0,-1,-1,-1,-1,0,0,0,0 +851, 钢琴曲《在那遥远的地方》是作曲家张朝通过改编中国著名作曲家王洛宾先生谱写的民歌《在那遥远的地方》而作。张朝对这首民歌的改编在原曲旋律的基础上进行多次的变奏,一次次的体现出中国传统音乐旋律、中国传统器乐与西方钢琴技巧的融合。使演奏者能直观深刻地感受这首作品的情感魅力。 论文已基本按照上次的评审意见修改。结构比上次合理,条理比上次清晰。但在第三章《在那遥远的地方》的演奏分析中,加入的谱例,有些格式不规范,建议调整。在第三章《在那遥远的地方》的演奏分析的第三大点华彩的处理中,内容建议再丰富一些。第四大点踏板的使用中应该分小点具体到例如音后踏板的使用,踏板深度的控制等等。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +1010,“八杆并联缓冲平台的性能分析及参数优化设计”,以杆并联缓冲平台为研究对象,研究了平台结构参数对系统固有频率和抗冲击性能的影响,对平台进行多目标优化设计。本文选题来源于工程实际,选题具有较大的理论意义和实用价值;作者文献阅读量一般,外文文献较陈旧,综述尚可,研究过程标明作者基本掌握了本领域内相关学术动态,选题具有将强针对性;论文研究过程反应出作者较好地掌握了本学科的基础理论知识和系统的专门知识,具有一定的从事本领域相关科学研究工作的能力,关键问题选择基本正确,研究方案较为科学合理,研究工作量尚可,得出的结论基本可靠,研究成果尚可,论文有一定新意;论文写作条理性较强,文笔较为流畅,论文图、表、公式规范,基本上达到了硕士学位论文的基本要求,同意修改后进行答辩。,0,1,-1,1,1,1,1,1,1,1,1,1,0,0 +2495,该论文在某车企研发的一款纯电动汽车的基础上增加超级电容储能模块,对双能量源工作特性、互补控制机理、重要部件选型匹配以及能量管理策略进行了研究。1、论文选题来源于本领域工程实际问题,具有明确的工程应用背景,命题具有实用性和较高的工程应用前景;2、论文提出的控制方法具有一定的理论意义和实用价值;3、论文反映出作者已掌握了本领域科学研究所需的基础理论、专业知识、基本研究方法和技能;4、引文规范,学风严谨,论文语言表达准确、逻辑严密性、书写格式及图表规范;5、论文达到硕士学位论文水平,同意组织答辩。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +2926,论文作者尝试运用理论知识去解决社会现实中存在的问题,这也是专业硕士研究生培养初衷,显然,这一目标基本达成了。论文的整体逻辑比较清晰,结构的完整性、内容的充实度、行文规范性符合要求。不过,由于本论文界定的是“企业价值评估”,其中涉及企业价值的不同内涵及与之相应的企业价值评估方法而不是价值评估的基本方法,因此,第三章的标题可否考虑修正为:传统企业价值评估方法与EBO模型?另外,在第三章中,传统企业价值评估方法的描述过于简单,似乎是为了体现EBO模型及改进之“新”,有不客观或基础知识不足之嫌;第五章中,结论是以市价的吻合度作为检验标准,是否暗含市场价值可以替代企业价值?疑似有瑕疵。结论:论文达到专业硕士学位要求。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +1224,本文制备了—系列法钴基氧化物及其复合材料,并顺利在三电极系统上对其进行相应的电化学测试。论文选题创新性和应用性强,文献综述覆盖全面,在探究实验中科学运用基础理论、科学方法、专业知识和技术手段进行较为系统的论证,体现了学生学术研究基础和能力。文本体例完整,层次清晰,重点突出,引言简明,论证充分,结论严谨,逻辑结构严密,语言表达准确流畅。论文总体内容丰富,三章研究环节都有对应的学术论文支撑,可体现作者的工作量和学术水平。,0,1,1,1,1,1,0,1,1,0,0,0,0,0 +2365,本文以切段式甘蔗收获机为研究对象,根据在企业实习的工作,采用理论分析、智能控制、仿真模拟以及试验验证的方法,对甘蔗收获机的收割效益进行了相关的研究,内容详实,研究充分,数据可信度高,达到了硕士学位论文水平。论文存在个别不规范现象。“如图1-2是切段式甘蔗收获机收割示意图”这是首次引用该图,应该出现在插图之前,并且此句话不该有开始的“如”字,这个现象在文中比较多。“图1-3研究思路流程图”在标题后直接出现,同样是正文引用在插图后,而且此图叫“流程图”也不合适。,0,0,0,1,0,0,-1,0,0,0,0,0,0,0 +687,融资关乎企业的生存和发展,研究产业政策、行业特征与企业债务融资关系,选题具有理论和现实意义 。论文综述了相关的研究文献,找到研究的突破口,阐述了相关的理论,经过分析提出理论假设,界定变量,选取样本,利用回归方法进行实证检验,并通过稳健性检验,得出可靠结论,提出针对性建议。反映作者有较为深厚的理论功底,有较强的分析问题解决问题的能力。研究中引入行业特征加以论证,在前人的研究基础上又前进了一步。结论可靠,建议可行。论文技术路线正确,结构合理,逻辑性较强。写作规范。,0,1,0,0,1,1,1,1,1,1,0,0,0,0 +1195,本文以生产制造车间环境为研究对象,对制造车间中各项资源数据进行分析研究。选题具有一定的实际意义。 作者做了三方面的研究: 1、设计了能全面描述车间制造资源属性的资源虚拟化语义模型并开发了一套可以感知多源异构车间生产数据的采集系统。 2、基于Kafka消息中间件和Lambda架构开发设计车间大数据处理系统。 3、基于模块化技术实现系统的部署并对各功能模块的性能进行了测试与优化。 论文整体结构较为合理;文字表达通顺;逻辑性较好并推理正确。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +1296,该论文对慢刀车床的工作过程、相关数学模型及控制技术等方面进行必要的阐述。在分析常规控制技术弊端的基础上提出了基于扩张观测器的非奇异快速终端滑模控制技术,在MATLAB/Simulink中进行仿真验证,做了必要的结果对比和误差分析。之后,又针对轮廓误差的问题提出了基于三维标准展开的交叉耦合控制,并研究和设计了控制器进行了仿真验证,从仿真结果看效果良好。 论文撰写规范,研究思路清晰,有较好的逻辑性,也反映了作者较好的专业功底和独立从事科研的能力。,0,0,0,0,1,1,1,0,1,0,0,0,0,0 +3018,针对大间隙工况下传统磁流体密封耐压能力低的问题,提出了一种嵌入式磁流体密封方法,研究了其压力传递机理和密封失效机理,并设计一种大直径嵌入式磁流体密封装置。作者广泛阅读了相关文献,对研究和应用现状进行了分析和综述,开展了有价值的研究工作。从理论、仿真和实验方面进行研究分析,获得有意义的研究结论,对解决机械装备的密封问题具有重要意义。论文写作规范,逻辑性强,结构层次清晰,文字表达通畅,文献的引用符合规范。掌握了本专业的基础理论知识,具有从事本专业科研开发的能力。同意安排硕士学位论文答辩,若答辩通过并满足规定条件,建议授予硕士学位。摘要后半部重复,A大于B和B小于A是一回事。例如:当径向极齿数量少于轴向极齿数数量时,当径向极齿数量多于或等于轴向极齿数量时,当轴向极齿数量少于或等于径向极齿数数量时,当轴向极齿数量多于径向极齿数量时。修改英语摘要。设计的大直径磁流体密封结构的直径是多少?图4-8,图4-9,图4-10,图4-11看不清楚哪个颜色代表哪个参数的结果。建议修改。,0,0,1,0,1,1,1,1,1,0,1,0,0,0 +295,该文提出采用不等齿宽结构和混合材料来设计制造近极槽永磁力矩电机。将取向硅钢片制成电枢齿,无取向硅钢片制成电枢轭和辅助齿。给出了设计尺寸,并采用电解析法与有限元仿真方法相结的方法进行了性能核算,通过对比,表明电机平均输出转矩提升 5.75%。还针对不等齿宽混合材料电机电枢齿与定子轭部拼接处的附加气隙对电机转矩性能影响的问题作出分析。平均输出转矩减小不足 0.1%。 该文的研究对提高我国近极槽永磁力矩电机制造质量具有一定的意义,具有一定的新意。结论具有一定的参考价值。显示了该生掌握了较雄厚的基础理论知识。具有较强的科研能力,达到了工学硕士水平,修改后可以进行答辩。 该文立论正确,论述有据,逻辑清晰,章节安排合理,图表符合工程要求。,0,1,0,0,1,1,1,0,1,0,1,1,0,0 +519,论文研究广义时变Markov 跳变系统,选题有重要的理论意义和实用背景。论文在前人工作的基础上,应用Lyapunov 函数理论、S-procedure、矩阵不等式,自由权矩阵等方法,获得以下有创新的结果:(1)给出了受脉冲影响下的执行器饱和系统的时域稳定条件、可解性和相关控制器的最优化设计方法,通过数值算例验证了理论结果。(2)得到了保证系统鲁棒时域有界和时域H∞有界的充分条件,分析和设计了非脆弱鲁棒时域状态反馈控制器,给定了保证系统时域H∞有界的性能指标和吸引域的估计,并用算例进行了验证。论文显示作者熟悉相关领域前沿工作,数学基础扎实,有较强分析研究能力。论文语言表达较清楚,数学推导严谨,实例计算较为充分。论文公式、图表规范。评阅人认为论文达到硕士学位论文水平,同意提交答辩。,0,1,0,0,1,1,1,1,1,0,1,1,0,0 +725,同步技术是OFDM通信领域的重要内容,论文选题具有理论研究和实际应用价值。 论文在介绍OFDM通信原理和国内外发展现状的基础上,开展了基于FPGA的OFDM移动通信基带信号处理系统研究。结合便携式无线信道模型,设计确定了 OFDM 通信系统基带设计基本框架和OFDM调制系统参数;在分析 OFDM 通信系统关键同步技术的基础上,基于Schmidl&Cox和Park同步算法,提出了一种适用于OFDM 移动通信的、基于训练序列的符号同步算法;设计了OFDM基带收发模块并进行了FPGA实现;完成了OFDM关键同步技术的FPGA设计与实现,仿真和板级调试表明了所提算法的有效性。 论文条理有序。 论文研究工作表明:作者在本学科掌握了较为坚实的基础理论和较为宽广的专门知识,具有较强的独立从事科学研究的能力。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +3015,增生性瘢痕的色泽评估对于医师把握患者病情、制定和调整治疗方案以及对增生性瘢痕的基础研究都有着重要的指导意义,论文研究基于图像的瘢痕色泽评估预测方法,选题具有一定理论意义和实用价值。论文首先收集建立了一个具有类别多样性的瘢痕图像数据集;其次研究了基于深度学习模型的瘢痕色泽识别评估方法,并在经典网络模型的基础上进行了改进;研究了传统机器学习下基于图像的瘢痕识别评估方法,采用DeepLabV3+实现对瘢痕病灶的分割,从分割图像中提取颜色和纹理特征并采用PCA进行特征融合优化,分别采用KNN和SVM进行分类;应用多分类问题的OVO策略将瘢痕色泽评估问题分解,并结合瘢痕生长规律和呈现的阶段性特点提出了多层级瘢痕评估算法,分别应用在深度学习模型以及KNN和SVM分类器中。论文反映作者阅读了相关文献,对课题的研究动态及本学科领域相关知识有一定了解,具有一定的文献分析和综述能力。论文运用的理论知识和研究方法符合实际情况,采用的技术路线合理,说明作者在本学科具有一定的基础理论和专业知识,掌握了基本的研究方法和技能,能够应用所学知识解决课题中的实际问题,具有一定的独立从事科研工作的能力。论文格式规范,但有的语句不通顺,如P6“其中ResNet101模型的取得了81.66%预测精度”,P8“本研究的图像样本来某三甲医院”,P16“由于指数函数的存在会让降低网络的运算速度”,P25“因此需要将移除部分预训练模型的深层网络”,P57“对多层级瘢痕评估算法的设计进行了理论分析和流程阐述阐述”;有的地方存在错别字,如P17“随后在进行输出”中“在”应为“再”,P19“增加深度以为着”中“以为”应为“意味”;P36“网络效应”和“网格效应”不一致;第4章中的“PAC”应为“PCA”。此外,实验中KNN的k值和SVM的核函数等参数未做解释和说明;P11“并且病灶内部中散落的部分浅色细节被覆盖为深色”,图2-2除了原图均为二值图,如何看出颜色的深浅?第4章分割用的数据集中各种类别的图像样本数分别是多少?ResNet18、ResNet50和MobilenetV2等网络在什么数据集上做的预训练?直接使用第3章数据集的实验结果如何?,0,0,1,0,1,1,1,-1,0,1,0,0,0,0 +2924,论文主要针对沃柑采摘系统中目标识别模块与采摘臂避障路径规划模块展开研究。提出采用改进SSD算法解决由于沃柑呈多目标、小目标以及果实发生重叠的生长状态时,容易出现重检、漏检等问题;提出基于快速随机树算法优化RRT算法通常存在的一些弊端。论文选题合理,所提算法具有一定的实用价值,能够创造一定的社会价值。达到硕士学位论文水平。论文存在问题:1、论文描述有待提高,口语化明显,可读性较差,如第2页中“路径规划算法经过多年的发展,许多在机器人领域的学者针对路径规划算法都有了大量的研究,”;“对MobileNetV1网络中加入FPN网络思思,”;20页“图像质量的好坏会直接有影响目标识别算法的识别精度”;文中多处matlab拼写错误。2、论文在20页提出为提高图像的锐度,使图像中纹理特征明显,采用高斯滤波算法。但是高斯滤波算法一般对图像能起到平滑作用,容易降低图像锐度和边缘信息,相互矛盾,建议修改。3、卷积神经网络提出已经很多年,比较普及,不建议作者在第二章大篇幅介绍,而应该把第三章RCNN算法、YOLO算法等等这些与后续章节紧密的基本算法放到第二章。4、43页实验描述“再将每组逆解得出来角度值带入正运动学方程(4-1)进行验证可知八组逆解都是正确的。”,没有数据验证,没有运算结果,直接得出结论不合理。,0,0,0,0,0,0,0,-1,-1,0,0,1,0,0 +1725,论文选题来源于会计及相关领域的实际问题,有明确的职业背景。论文在总结相关文献和已有研究的基础上,依据理论基础,利用样本公司数据,采用实证研究法,研究了管理层能力、并购协同程度与并购绩效的关系。有关研究对重视企业并购中的管理能力提升,关注业绩承诺、并购协同程度,提升并购绩效具有指导意义和借鉴价值。 全文研究目标明确,思路清晰,结构严谨,研究方法合理,工作量饱满。论文中探索了管理层能力影响并购绩效的作用机理,是其亮点之处。论文反映了作者的专业基础较好,具有一定的综合运用知识、分析问题和调查研究问题的能力。 综上所述,我认为该论文达到硕士论文应有的专业水平,同意其参加论文答辩。,0,0,0,1,0,0,0,0,1,1,0,0,0,0 +2040,钛合金与镍基高温合金形成的双金属结构在航空航天工业领域具有重要的应用前景,开展TC4 钛合金与Inconel 718 镍基高温合金的双金属结构的增材制造工艺、组织与性能研究具有重要的意义和价值。作者调研了大量国内外文献,阐述了镍基合金与钛合金的焊接难点,掌握了增材制造双金属结构的研究进展。作者采用激光增材制造(LAM)系统,研究了不填夹层、添加Cu 夹层、添加Ta/Cu 各一层复合夹层、添加Ta/Cu 各两层复合夹层时,制备的双金属层的宏观形貌、相组成、微观组织、硬度、拉伸性能及断裂机理等,当采用Ta/Cu 各两层复合夹层时,LAM 的双金属结构力学性能最好,能够有效地避免了金属间化合物产生。研究内容比较全面,研究手段先进,技术路线合理,研究成果具有一定的创新性和实用性,论文结构合理,逻辑性强,写作规范,文字表达清晰。,0,1,1,0,0,0,1,1,1,1,0,1,0,0 +2846,论文以某场合使用的双箱梁门式起重机为研究对象,建立了起重机三维模型,进行了静力学分析、动力学分析,结构拓扑优化,以重量最轻为目标进行了结构优化。选题具有一定的理论研究意义和适用价值。论文整体框架较为合理,条例清楚,逻辑性较强,体现出一定的研究能力和科技写作能力。建议:文献10有绪论引用处的结论?图2-1应该是起重机装配的三维模型,请说明是如何根据使用工况和条件确定其结构尺寸的?请解释表3-1三种工况具体是什么工况?公式3-1里每个参数取值多少计算得到表3-1工况一F的值?导重法优化后,起重机减重24%,具体哪些零部件结构或尺寸变化了?变化了多少?,0,1,0,0,0,1,0,0,1,0,0,0,0,0 +1309,该论文脉冲功率技术脉冲发电机进行研究,论文选题具有重要的理论意义和工程应用价值。 论文提出了一种具有微感和强电流特点且与驱动电机一体化的被动补偿式外转子永磁脉冲发电机新型拓扑结构,建立了被动补偿式外转子永磁脉冲发电机对负载放电的数学模型,采用三维场路耦合法和磁固耦合法分别确定了该样机在放电状态下的电磁力分布和应力、应变分布,研制了一台被动补偿式外转子永磁脉冲发电机及其驱动电机一体化样机开展试验验证。 论文语句通顺,调理清楚,图表较为规范,研究工作理论联系实际,工作量充实,达到博士学位论文水平要求,同意答辩,0,1,0,1,0,0,1,1,0,0,0,0,0,0 +642,论文针对提高光伏电池组件的发电效率这一控制目标,研究了光伏最大功率点跟踪控制算法,具有明显的实际背景和重要的理论意义及应用价值。论文对光伏发电最大功率点跟踪控制算法的国内外相关研究及发展状况做出了详尽的概述和分析,建立了光伏电池的数学模型和仿真模型,并分别对传统的和智能的光伏最大功率点跟踪控制算法进行了分析研究,得到变论域模糊 PID用于光伏最大功率点跟踪控制性能最优的结论。论文研究逻辑清晰分析合理,论文的研究方法和所得结果具有一定实际价值。论文表明,作者掌握了比较坚实的基础理论知识和系统深入的专门知识,具有较强的从事科研工作的能力。论文已达到工学硕士学位论文水平。,0,1,0,0,1,1,0,0,1,0,0,1,0,0 +1276,该轮文采用理论计算与实验相结合的方法,计算了在Ti表面涂敷Al、Al/Ni、Al/Cu涂层后再热处理过程中金属间化合物形成的热力学参数,分析了金属间化合物的形成顺序。论文文献分析较全面。对于Ti合金耐氧化涂层的研究现状进行了分析,将第一性原理运用于计算中,研究方法较先进。论文对于涂层的热处理后的样品进行了实验分析,分析结果合理。论文基本达到了硕士论文的水平。,0,0,1,0,0,0,0,0,0,0,1,0,0,0 +1907,论文针对过共晶Al-Mg2Si原位自生复合材料中,由于先共晶Mg2Si相颗粒粗大、形状不规则而造成的性能下降问题,提出采用稀土元素La、Y进行变质处理的技术方案,系统研究了稀土元素加入量对先共晶Mg2Si相尺寸形貌及合金力学性能的影响规律,获得了最佳加入量,并对其作用机理进行了较为深入的分析。在此基础上建立了反映该复合材料真实微观组织结构的有限元模型,模拟了单向拉伸载荷下材料的变形力学场,阐明了初晶Mg2Si颗粒对材料损伤过程的影响。论文选题、实验数据、主要结论对Al-Mg2Si原位自生复合材料的开发应用均具有较大的理论指导意义与实践参考价值。 论文对Al-Mg2Si原位自生复合材料的研究开发现状、材料损伤模拟分析研究现状进行了系统的总结;所制订的研究方案科学合理,对实验现象的分析较为深入也较为专业;论文结构完整、图文规范;表明作者已较好的掌握了材料工程的科学研究方法,具有了较为扎实的理论与实践基础,达到了材料与化工专业学位硕士研究生的培养目标要求。,0,1,0,0,1,1,1,0,1,1,0,0,1,0 +1508,激光切割金属材料的研究属于机械工程专业的研究范畴,同时研究离轴量对激光切割不锈钢薄板的质量影响具有实用价值,因此论文的选题正确。 论以文2mm厚的不锈钢板为加工对象,研究了离轴量、切割速度、氮气压力、激光功率等因素对切缝宽度、表面粗糙度、断面粗糙度等质量指标的影响,进行了优化分析,还采用了响应曲面法进行了优化设计与显著性分析,重点研究了离轴量与其他影响因素之间交互作用对切缝质量的影响,并进行了最优工艺参数的预测与验证。 试验研究思路清晰、方法正确、试验数据详实、结果可信,论文层次清楚、格式规范,符合硕士学位论文的要求。但是,还存在一些不足之处,需要修改和完善。,0,1,0,0,0,0,1,0,1,1,0,0,0,0 +1673,论文所研究的PVC聚合过程混合模型预测及优化控制具有较广泛的应用前景,具有较高的应用价值和实用价值。 论文结构尚合理,从研究背景、聚乙烯聚合过程反应机理、基于神经网络的聚乙烯聚合过程混合模型、基于GA优化的BP网络预测模型等部分。但建议优化过程单列一章在建模基础上进行优化控制研究较合理,否则与论文题目宗旨不符。 论文研究说明该生具有一定的理论基础,但对问题的分析较肤浅,限于定性分析较多,对模型的建立等方面未结合课题内容进行有效阐述和分析,结合不够。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +2335,本文选题符硕士学位论文选题要求,论文具有一定的理论价值和现实价值,达到了硕士学位论文要求。作者能够运用所学计量方法、专业知识研究现实内容,并形成了自己的观点,论据充分。但希望能进一步充实本文内容,并反复通读全文。1、研究假设结论尽量显示在标题中。2、理论基础涉及理论较多,但在后文分析解释中未融入其中,略显孤立。3、模型设计过于简单,且未做具体说明,控制变量较多,应考虑其多重共线性问题。4、研究建议过于泛泛,针对性不强。,0,1,0,0,0,0,-1,-1,-1,0,-1,0,0,0 +380,论文《汽车螺栓打紧质量大数据分析》的选题具有工程应用意义。作者通过对国内外与该选题相关的领域发展现状的论著和文献的收集、归纳和综合分析,明确了论文所要解决的问题,研究方向比较明确。 论文完成了以下工作:从企业生产实际出发,分析了螺栓打紧工艺过程和控制方法,通过对现有质量评价标准的研究,指出了企业存在的质量评价缺陷,针对螺栓打紧过程的历史数据,利用数据挖掘算法和大数据运算框架,分别构建基于 CART 决策树 的异常检测模型,基于并行化聚类算法 KMeans 的异常状态识别模型,实现对螺栓打紧工艺的质量评价验。 论文的研究成果有实用价值,论文难易适当。 论文的分析和研究工作所涉及的内容反映作者掌握了相关学科的专业知识,具有了基本的从事科研工作的基础。 论文写作条理比较清楚,分析较严谨,逻辑性强,论文写作基本符合规范性。,0,1,1,0,1,1,1,1,1,0,0,1,0,0 +605,论文针对电动汽车驱动电机宽转速运行范围和低成本的需求,开展了分数槽永磁同步磁阻电机的设计研究,选题具有较好的理论意义和实用价值。 论文在各型结构永磁同步磁阻电机的设计基础上,建立了电机有限元仿真模型,并对电机空载和负载运行特性进行了仿真验证,研究了分数槽和整数槽结构电机的转矩特性,结合高运行工况下的弱磁运行需求,开展不同结构电机的弱磁运行特性的仿真研究,得出了分数槽18槽8极结构电机具有最优输出特性。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1459,该文针对风力发电机的不同运行条件可能对风力发电机的正常行为模型的影响问题,研究了基于多工况划分的风力发电机正常行为模型。选题合理,有一定的实际意义。 该文针对SCADA系统采集数据信息存在参数过多的问题,采用Pearson相关系数、Kendall秩相关系数、Spearman等三种相关系数对采集的风力发电机实时运行数据进行筛选和预处理。将预处理后的参数进行数据聚类,找到类内紧致、类间分离的簇,并通过聚类有效性函数Calinski-Harabasz确定最佳聚类数,将参数划分为6种工况;再将每一个工况作为一个任务,将多个工况融合在一个多任务学习框架下的深度神经网络模型中。经对比分析,结果证明基于多工况划分的风力发电机正常行为模型效果较好。 算法思路比较清晰,论文结构比较合理。同意答辩。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +1066,本课题针对电热单元和蓄模块相关问题,提出一种35 kV高温电压固体蓄热体,并对电热元件及多物理场协同优化展开了数值模拟研究,得到了一些有益的结论。 作者采用数值模拟方法,验证了所设计的结构,证明可以使蓄热模块在750℃左右高温时温度均匀分布。对比分析多物理场耦合情况下,蓄热模块电、磁、温度分布情况,证明电压对相关参数的不同需求,35kV时不同温度下的电磁场分布较为均匀。 该研究设计较严谨,操作规范,统计合理。论文写作规范,结构层次清晰,文字表达通顺,达到了硕士论文要求,建议在适当修改后安排进入下一环节。,0,0,0,0,0,0,1,1,1,0,1,0,0,0 +1283,该论文采用多任务学习方法对中医的证候、疾病以及药方生成模型展开了研究。论文的选题属于人工智能与中医的交叉学科,具有良好的应用前景。作者对基于人工智能的中医诊断方法有较好的了解,能运用所学的专业知识分析问题,解决问题,提出的研究方案可行。 论文的结构合理,但在写作方面存在较多的问题,需要进一步完善。,0,0,0,0,0,0,0,-1,1,1,0,0,0,0 +1493,广义T-S模糊系统的容错控制问题研究是控制理论中有一定实际意义的研究领域。该文利用Lyapunov稳定性理论及适当控制器的选取,对具有传感器故障的不确定广义T-S模糊系统与不确定广义T-S模糊时滞系统的稳定性和容错控制问题做了较为具体的研究,获得了一定的理论结果,并通过数值实验验证了该结果的有效性。 该文选题新颖,逻辑推导正确,撰写规范,达到了贵校硕士学位论文的学术水平,同意其参加答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1227,"本文主要将换挡辅助AMT机构应用于混合动力卡车上,然后对其进行了动力参数匹配,设计了考虑换挡冲击度的二参数动力性换挡策略和考虑燃油消耗的最佳经济性换挡策略以及兼顾两者的综合性换挡策略,最后通过仿真验证了本文所提出的PID控制的驾驶员模型的合理性和换挡辅助AMT结构的有效性。论文工作具有一定的实用价值与实践指导意义,工作量相对饱满,撰写较为规范,文字表达清晰,具备一定的独立科研能力。",0,0,0,1,0,1,1,1,0,0,0,0,0,0 +387,论文采用等离子体直流电弧法和原位自聚合法制备得到Ni@C/NC纳米核壳结构,相比Ni@C结构,其反射损耗值的幅度增大了1倍以上,并随着壳厚度增加其吸收峰向低频移动。还利用直流电弧法和调节不同氮气压强得到不同氮掺杂的Ni@NC纳米胶囊,随着氮掺入量增加,材料的吸波性能有明显变化,并给出合理解释。此论文的实验方法合理,所得结果可信,有一定的科学意义和应用价值。 论文的布局合理,逻辑性强,书写比较规范,从论文中反映出该同学具备了一定的科研能力和较好的基础知识,该论文已达到硕士研究生毕业的基本要求。,0,1,0,0,1,1,1,1,1,1,1,0,0,0 +2138,针对处于步态康复后期的患者,研究基于物联网平台的步态特征评价方法,具有一定的理论价值和实用意义。本文作者缺乏基本的知识储备,独立从事科研能力较差,研究成果不具备学术价值。表现在:GPRS与4G通信协议混为一谈;AD转换的AD值是模拟量还是数字量?文献综述没有本文主题步态特征评价的研究现状;文章第2章、第3章只是对已有基础只是的简单拷贝,几乎没有创新;第4章的实验结果所得结论,路人皆知,毫无新意,关键是根据本文实验方案和实验结果也无法得出这样路人皆知的结论,因为两次实验提取的特征不一致。 总之,论文达不到一篇硕士学位论文的要求,不同意答辩。,0,1,0,0,-1,-1,0,0,-1,0,0,-1,0,0 +2220,1、论文基于机器视觉对车辆检测与测距研究,具有一定的理论意义和较好的经济实用价值;2、作者对本学科及相关学科领域国内外发展状况和学术动态有一定的了解;3、论文内容较为充实,机器视觉实验内容丰富,数据详实、结论可信,论文的研究体现了作者较好的分析问题、解决问题的能力;4、论文引文的规范性,学风的严谨性;论文语言表达的准确性、逻辑的严密性、书写及图表表达也较为规范性;5、论文达到硕士学位论文水平,修改后同意答辩。6、存在的问题:(1)文中的基本知识介绍篇幅偏多,内容应精简,且更要突出算法模型的特点和创新性;(2)文中有多处格式问题,如大量页末留白等,这要加强修改。(3)进一步提炼摘要,精简结论,注重总结本文研究的意义,提炼创新点。,0,1,0,1,1,0,-1,0,0,0,0,0,0,0 +2668,"论文考虑市区内道路多样性,研究受时变路网影响的冷链物流多配送中心多车型联合运输问题,以实现降低配送成本目的。选题具有一定的现实意义和和实际应用价值。论文探索了冷链运输中交通路况拥堵系数对运输成本的影响,研究了时变路网下考虑道路多样性的冷链物流路径问题,建立了综合固定成本、时间变动成本、路程变动成本、时间窗惩罚成本及碳成本等总成本最低为目标的数学模型,设计了蚁群混合算法;研究成果应用到冷链多物流中心联合运输中,通过算例求解与对比分析,验证了模型与算法的有效性。论文结构合理,逻辑性强,研究方法正确,写作规范,表明作者掌握了本专业领域的基础理论和专门知识,具有综合应用科学理论方法和技术手段解决实际工程问题的能力。该论文达到硕士研究生学位论文水平。论文存在的问题及不足之处:1.该论文分别研究了三个问题即第3、4、5章,它们之间的逻辑关系是什么,文中没有说明,而且每章模型建立的方法相同,内容重复较多;2.文中公式在正文中没有阐述,可读性不够;3.图3-2、图3-3缺少节点编号和路径方向,图清晰度不够;4.P29文中提到拥堵系数ξ,其取值为服从均匀分布的随机样本值,根据拥堵情况不同分别为1-2,1-3以及1-4,什么含义?为什么?缺少说明;5.公式3-13时间窗惩罚成本C4中参数单位不统一,为什么乘以�系数,文中没有说明。",0,0,0,0,1,1,1,0,1,1,0,0,0,0 +131,本文选题符合专业方向,具有一定的实际意义。文章介绍了码垛机器人的工作方式,通过各类选型完成了结构设计,基于D-H法建立了运动学模型,并分别用ADAMS和ANSYS 软件进行了运动学和动力学仿真分析,最后进行了一定的结构优化设计,对实际生产有一定的指导作用。作者对专业知识的掌握较好,能够运用相关软件工具进行一定的研究、分析。写作规范,结构清楚。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1911,论文针对弧齿锥齿轮的齿面成型与接触分析展开研究,选题恰当,具有较好的理论意义和实际应用价值。论文的主要研究工作如下: (1)根据弧齿锥齿轮啮合原理和加工参数设计要求,建立了弧齿锥齿轮三维模型。 (2)利用 Hypermesh 对弧齿锥齿轮进行前处理,建立合理的有限元网格分析模型和边界条件和载荷加载方式,为动、静力学有限元分析打基础。 (3)进行了模型静、动态接触分析,得出在不同载荷下齿轮齿面接触应力状况及载荷的改变对齿轮传动误差及齿轮传动的影响,得出影响因素参数的改变对齿轮啮合传动的影响。 论文文献综述全面,结构合理、写作规范、表达准确。论文的综合水平反映了作者在本门学科上已掌握了相关的理论知识,具有系统的专业知识面,具备了独立从事科研工作的能力。达到了硕士学位论文要求。,0,1,1,0,1,1,1,0,1,0,0,1,0,0 +907,该论文是以小宫山宏所著的《低碳社会》一书作为翻译文本进行了翻译实践研究,以图里的预备规范、初始规范和操作规范的翻译规范理论指导下,从母体规范和文本语言规范两方面对翻译文本实例进行了具体分析,探讨了操作规范下微观层面和宏观层面译者的翻译方法。 该论文充分体现出翻译实践报告的研究特色,符合专业特点。纵观全文,该翻译实践报告研究思路清晰,结构合理、层次分明,行文比较流畅,体现出作者已经掌握了基础理论,并具有一定的分析问题、解决问题的科研能力。译文亦能够完整地传达原文的思想内容, 译文语言文字表达亦较流畅。但稍感欠缺的是从理论层面对词语、句子的分析不够深入,有些浅显。,0,1,0,0,1,1,0,1,1,0,0,0,-1,0 +649,论文针对制造单元多设备系统的故障预测与维修决策问题展开研究,建立了基于贝叶斯网络的故障预测方法,在此基础上结合多设备系统的特点建立了联合设备预防性维修决策模型,并应用遗传算法求解最优维修时间。论文的研究成果对多设备系统的维修管理有参考价值。论文的研究工作具有一定的技术难度,论文的结构安排合理,写作基本符合规范。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +596,论文针对 TIG 焊电弧能量密度小、熔敷速度小、熔深浅、焊接效率低的缺点,使用逆变技术设计研制了一种高频磁控电源,该电源可以改变磁场的作用频率,同时通过改变激磁电流的大小可以改变磁场的作用强度,具有体积小,重量轻, 操作简单,方便调节等特点,论文为磁控焊接技术的实际应用与发展提供理论基础。 论文对激磁电源,包括主电路、同步电路、控制电路, 反馈电路,保护电路等的设计与优化进行了理论分析与计算,反映作者具有较扎实的相关学科与专业的基础知识与基本理论,论文写作规范,论述清晰,数据与图表详实。,0,1,0,0,1,0,0,1,0,0,0,0,0,0 +540,论文研究线圈辅助励磁无刷直流电机的优化设计,选题具有一定的理论及实用价值,论文的主要工作如下: 1)分析了线圈辅助励磁无刷直流电机的结构和工作原理,建立了数学模型; 2)设计了一台线圈辅助励磁无刷直流电机,基于有限元分析对电机静态特性、电枢与励磁绕组的匹配等问题进行了研究; 3)针对转矩密度进行了电机优化设计,相应计算结果验证了优化的正确性。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +800,在经济新常态下经历增速放缓和转向质量效益型集约增长的背景下,充分利用信息化,大数据和BIM技术,是实现建筑业信息化的关键,开展大数据的BIM工程管理平台的研究,有利于解决传统二维项目展示时的建筑参数丢失、信息表达不完整、不准确和工程项目运营、维护难以改善难题。选题具有一定的工程意义 论文通过对大数据和建筑行业数据特点进行多角度对比分析,应用大数据挖掘技术和BIM技术,开发了基于Python的建筑行业的大数据挖掘平台;通过对国内外BIM工程管理平台的对比分析,开发了基于Unity3D技术的BIM工程管理平台,并结合沈阳某高校工程实例验证了大数据挖掘平台与BIM工程管理平台的协同应用。 论文图表清晰,层次结构合理,表明作者能够利用专业知识解决实际问题的能量,论文达到工程专业学位论文水平。 。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +2937,"乳酸菌应用到食品中除了产生乳酸外,还可以产生其他有机酸,赋予食品更多营养物质,使食品更加美味,是一种功能菌。该研究筛选了一株发酵性能良好的乳酸菌,进行了鉴定,研究了其发酵性能,特别是异/同型乳酸菌混菌发酵竹笋取得了较好结果。本文选题与当前经济发展较为密切,实践价值较大,选题正确;该论文设计合理,能综合运用本学科基本知识独立开展科研工作;通过文献调研,了解国内外本研究领域研究现状;论文逻辑清晰,结构合理,数据可靠,重点突出,但部分内容过于简洁。该论文在写作方面尚存在诸多问题,认真修改:在2.1.1原料与试剂节中,要列出所有在文中使用的主要仪器,并写出详细信息。本论文图题过于简洁,不能简明反映出图的含义,如:图2-1,图2-2,图3-2,---,需要认真修改!P12,甘露醇含量测定是本论文重要指标,文中缺少甘露醇含量测定方法的描述。2.2.5.2节,MRS培养基pH如何调节?2.3.4.2节中,初始pH是如何形成的?基因测序工作是哪个商业公司?应该将所有研究指标的测试方法详细在文中体现。总之,论文达到硕士研究论文的水平和要求,建议对存在问题修改后参加学位论文答辩。",0,1,1,-1,0,1,0,0,1,0,-1,0,0,0 +2729,论文选题具有较为重要的应用价值。该文运用改进的质押系数法对专利权质押融资价值进行评估,考虑专利权的整体质押融资风险,更具特色的考虑了专利的自身特性,进一步提升了专利权质押融资价值评估的准确性。论文综合运用相关理论、方法选择较为合理,资料详实,研究成果具有一定的应用价值。符合硕士研究生学位论文要求,同意该生参加硕士学位论文答辩。文章结构完整,格式较为规范,符合硕士研究生学位论文要求,同意该生参加硕士学位论文答辩。论文存在的问题及不足之处:第三章是文章的核心内容之一,但的标题和内容的贴合度不够,指标体系构建的过程胶带还需要进一步充实,建议对本章内容和结构进行适当的修改和完善。,-1,1,0,0,0,0,1,0,0,1,1,1,0,0 +996,作品《放骆驼的哈萨克族人》以一家三代人养骆驼的阿曼一家作为主线,记录了属于哈萨克族人特有的饮食习惯、宗教风俗、重要节日和生活状态,作品配乐过度,干扰了画面和人物声音信息的传达,同时解说词和采访也过多,纪录片更需要画面自身讲故事。论文主要结合新疆哈萨克少数民族题材纪录片作品《放骆驼的哈萨克族人》,从纪录片的叙事语言、叙事结构和叙事理念三个方面进行分析和概括。但论文写作者学术素养较低,写作态度不够端正严谨,文中出现一些低级失误,应仔细校对,认真修改和补充内容。,0,0,0,0,0,0,0,-1,0,0,0,0,0,-1 +1406,该生的硕士论文研究基于高温耐腐蚀非晶合金涂层应用需求,在调研国内外相关研究工作的基础,提出在文献报道的Fe-Cr-Zr-B-Mo非晶形成合金的组成的基础,改变部分组元如Zr和Mo的浓度和适量添加Nb、Si和Cu等元素,研究其对Fe-Cr-Zr-B-Mo合金的玻璃形成能力及其相关热学和力学性能等的影响。该生结合采用微观组成形态、X射线结构、差示扫描量热和力学性能分析手段对所制备的样品进行分析,获得了如下几项有新意和特色的主要研究结果:Nb的添加量为2 at.%~3at.%并适当调整Mo的浓度可以获得临界形成尺寸不低于3 mm块体非晶合金,其过冷液相区宽度在70~80 K,压缩断裂强度在~2 GPa,过少或过量的Nb元素添加都会造成该合金体系的非晶形成能力和过冷液相区宽度变小;在优化添加Nb合金元素的基础上,实验发现Si、Cu和Al的添加反而对合金的玻璃形成能力产生不利影响;用Zr置换Nb虽然也使得合金的玻璃形成能力有所降低,但能明显提高非晶合金的压缩断裂强度到~3.3 GPa且提高弹性应变(2%)。该生在论文中对添加合金元素的选取思路和实际产生的玻璃形成能力、热稳定性和力学性能变化效应等都做了介绍和讨论。这些结果对开发用于高温耐腐蚀用途的非晶合金具有较好的应用参考和理论价值。 该生通过硕士论文工作掌握和运用了与相关材料制备、微观组织和结构观察分析、热学及力学性能测量分析等实验和分析方法。论文的实验与分析工作量较大,结果可信。本论文的写作结构较层次清晰。论文工作及取得的结果表现出该生具备从事科研工作和解决相关工程与技术问题的能力,已具有较好的专业理论知识。论文工作已达到了工学硕士论文的水平。建议组织进行并通过硕士论文答辩。,0,0,0,1,1,1,0,0,1,0,1,1,0,0 +1294,该论文对混合动力汽车电磁环境,驱动系统电路工作原理和驱动电路中二极管产生电磁干扰机理进行了分析;建立了超级结JBS 二极管的初始模型,分析了超级结JBS 二极管的工作机理、工作特性,利用数值方法分析超级结JBS 二极管中P 柱区域浓度、N 柱区域浓度等参数对器件性质影响并优化其结构参数;针对一般超级结JBS二极管的反向恢复过程中电流变换较快,具有较大的di/dt 的问题,该论文通过改进结构设计一种低电磁干扰超级结JBS 功率二极管,新型超级结JBS 功率二极管不仅能够减小反向恢复过程中的di/dt,还能够用普通的制造工艺实现。论文理论意义深刻,有一定的学术参考价值,文献资料有深度,作者具有较强的理论基础和专业知识,在该领域有自己的见解,工作难度适中,达到了硕士论文水平。,0,0,1,0,1,0,0,0,0,0,0,1,0,0 +2265,本论文利用超声波对蔗糖结晶过程进行强化,详细探讨了超声和无超声作用下蔗糖溶析结晶特性,并利用在线反应分析仪测定了蔗糖的红外光谱特征带与过饱和度的关系,对超声以及无超声作用下蔗糖溶析结晶成核动力学进行了系统的研究。论文选题对于制糖工业实践具有一定的理论指导意义和实用价值,文献较为调研全面,研究体现出较好的理论基础和科研能力,论文写作条理清晰,层次概念清楚,文字图表比较规范,达到硕士学位论文水平要求,同意修改后答辩。(1)17-18页,27页,28-29页,41-44页段落首行应该缩进。(2)19页,成核剂为无水乙醇,丙三醇和蔗糖脂脂肪酸的混合溶液,成核剂及比例是如何确定或者筛选出来的?(3)21页,悬浮密度怎么测定的?(4)本论文实验部分的数据点(如图4-4,图4-5,图4-10等等)都只测一次,如果有异常的数据或者偏差比较大的数据可能会对拟合结果产生较大的影响,是不是可以测多次取平均值?(5)论文排版时图片及其标题(如图2-11,图3-16,图4-10等等)应该尽量排在同一页。(6)全文有不少错别字(如10页,第三行:“一种程度”应为“一定程度”;“包涵”应为“包含”;“形核”应为“成核”等等),应该全文检查。(5)少量参考文献格式不统一,如作者的英文名缩写之间是否加横线?后面是否要加点?[96]号文献论文题目去掉-ScienceDirect。,0,1,1,0,1,1,-1,-1,1,0,0,0,0,0 +939,论文分析探讨了产出导向法在高中英语混合式词汇教学中的应用问题。作者尝试通过教学实验,将产出导向法运用于高中英语线上、线下结合的词汇教学中,探究其对高中生英语词汇学习能力、态度等的影响。论文选题来源于实践,符合本专业的培养目标和要求,体现了较好的应用性和职业性,有一定的实用价值和实践意义。作者文献阅读比较广泛,对本学科及相关学科领域研究动态和最新进展基本了解,文献综述尚算全面,归纳总结基本准确、得当。研究过程中,作者基本能够运用相关的理论知识,选择较为合适的研究方法;论文研究资料尚算翔实,运用也基本合理、得当,论文写作条理比较清晰,结构比较严谨,论证基本充分;研究工作比较深入,工作量比较饱满。研究结果有初步的应用价值,对英语词汇教学实践有一定的指导意义。 ,0,1,1,1,1,0,0,0,1,1,1,0,0,0 +2629,论文对复杂受力状态下型钢混凝土柱受力性能进行研究,具有一定的研究意义。论文意见如下:1、摘要中背景和意义简写;2、英文摘要存在不少语法错误;3、国内外研究现状介绍没有逻辑性,介绍过于简单,缺少对比分析,试验,有限元,理论等顺序介绍;4、试验方案中三维图效果不好,结合平面图进行介绍;5、量测位置介绍不清楚,应变片和位移计没有进行编号;6、第二章破坏形态放到第三章中;7、第三章每段开头空字符,滞回曲线没有进行分阶段介绍,原因解释加上;8、第三章和第四章合并;9、承载力理论分析没有,缺少与已有计算方法比较。,0,1,0,0,0,0,-1,-1,-1,-1,0,0,0,0 +2661,论文具有一定的前沿性和开放性,研究具有一定的理论意义和工程应用价值,作者对国内外该选题及相关领域发展现状进行了一定的归纳和总结。论文研究方法较为科学、引证资料较为翔实,作者具备一定的独立从事科学研究的能力,引文较为规范、学风较为严谨,论文结构具有一定的逻辑性,文字表述较为准确、流畅。综上,推荐其参加答辩。但论文存在以下问题:(1)论文的参考文献引用格式错误,需修改。(2)表2.4中的试验数据,呈现出较大的离散性,作者需要对此进行评述。(3)图3.9b中,剪切变形测量装置的固定方式是否可行?(4)论文的结论重新进行进一步的梳理,给出论文的创新贡献。,0,1,1,0,1,1,-1,1,1,0,0,0,0,0 +1446,该文研究了十二指肠、胆胰管部位的术前影像的分割与三维重建,实验数据采用来自医院临床的CT与MRI术前影像,同时又对术前影像进行了医学图像配准实验,并提出了相应的新算法,实验验证后效果更好。从论文内容可以看出该掌握了全面的科学研究方法与实验验证方法,同时也可以看出作者具有较高的理论和实践水平,能够独立从事科学研究。论文达到硕士学位论文要求,同意提交答辩。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +1275,该课题研究工作理论扎实严谨,具有一定的理论意义与实际价值。结构完整,格式规范,层次清楚,条理分明,语言通顺流畅,内容丰富。文献材料收集丰富详实,基本涵盖了本学科相关的主要文献,并对本学科发展趋势有一定的归纳作用。 论文撰写严肃认真,推理符合逻辑,结论和建议具有现实意义。 该论文反映出了作者在本门学科方面坚实的理论基础、系统的专业知识,达到了硕士学位论文的要求,建议安排答辩。,0,1,1,0,1,0,1,1,1,0,1,0,0,0 +2565,该学位论文围绕新能源锂离子电池电极材料开展了相关基础研究,选题具有一定的理论和实用价值,能够理论结合实验,具有较大的研究难度,反映了作者具有较好的科研工作能力。该论文已达到硕士学位论文水平,但还存在以下一些问题:1中文摘要中存在中英文标点符号混用的问题,同时语言连贯性还需要进一步改善;②论文正文中存在不规范写作问题,比如1.5.2,1.5.3,2.2中的科学计数法,3.1中有中英文括号混用等;③Fe2O3/TiO2/C复合纳米纤维中,Fe2O3/TiO2的比例是怎样的,以及它们之间的比例关系是如何确定的?,0,1,0,0,0,1,-1,-1,0,0,0,0,0,0 +699,双馈风力发电机是目前应用最为广泛的风力发电机,论文对双馈系统变流器的直接功率控制策略进行研究,论文的选题具有一定的实用价值。论文设计了一种采用新型的滑模趋近律的滑模控制器,最后通过仿真验证了所设计的系统。论文撰写认真,文字通畅,结构合理,图表清楚,反映作者掌握了较坚实的理论基础和专业知识,具有一定的科研能力。,0,1,0,0,1,1,1,1,0,0,0,0,0,1 +2385,本文针对脑卒中病人术后康复训练的问题,提出了一种“简洁型远程康复训练机器人”,研究了运动姿态和运动意图,分析了静态和动态下的康复机器人的稳定性问题,最后进行了实验研究。现有些许问题有待商榷和探讨。(1)摘要的翻译注意一下时态语态,论文已经完成啦,很多事情也都结束了,建议采用过去式。此外,很多单词的翻译有待完善提升。(2)课题背景和意义中很多文献的引用,太粗,比如“康复机器人是医工结合的产物,是包括人机交互系统在内的复杂的耦合系统,是多学科领域融合的高度发展的产物[20-24]。”,这里一口气引用5篇文章,显然不太合理,建议完善。(3)“根据GB10000-88数据显示”,所采用的国标数据(88年)太陈旧了,应该选用较新的数据。(4)所有带单位的公式,应将单位用括弧括起来,要不然容易公式左右不平衡。(5)2.4.4“这样设计出来的扶手为病人提供了两种抓握方式”,有哪两种方式?(6)根据图2.5,“拉线位移传感器模块会检测人体中心数据”,这个中心数据是测量后经过理论计算出来的,不是直接检测出来的,另外,应该提供理论计算的过程。(7)图3-5安全模式判断逻辑中,拉力应采用多少N。(8)3.4中,选用了STM32F107控制器的哪个具体型号?为什么要选择这个型号?(9)第五章simulink的模型中,被控对象的模型(1/(S2+1.6S+1))是如何得到的?该模型是否能代表实物对象呢?(10)第五章,模糊PID控制中的PID的三参量的变化过程要给出来,并结合控制效果分析。,0,0,-1,0,0,0,0,0,0,0,0,0,0,0 +69,本论文基于高熵合金良好的耐腐蚀性能和耐磨性能,研究了Mo、Nb、Ti的添加对 FeAlCuCrNi高熵合金堆焊层的组织结构和性能的影响的规律,研究具有较高的理论意义和工程应用价值。所取得的主要研究成果有: (1)阐明了单一金属添加量对FeAlCuCrNi高熵合金堆焊层硬度和耐腐蚀性能的影响规律。 (2)对于FeAlCuCrNiMoxNby而言,x=0.4时,y= 1时,组织晶粒最小,堆焊层硬度最高,硬度值为47.5HRC;耐磨损性能最好。而FeAlCuCrNiMo0.2Nb0.8的腐蚀电位最高,腐蚀区间最宽,耐腐蚀性能最佳。 (3)FeAlCuCrNiMo0.2Nb0.6Ti0.8的堆焊层力学性能达到最佳匹配,硬度值为47.4HRC,但是FeAlCuCrNiMo0.2Nb0.6Ti的耐腐蚀性能最佳。 论文研究工作量大,数据翔实,论文撰写认真,文笔流畅,是一篇较高水平的硕士论文。,0,0,0,1,0,0,0,1,0,0,0,0,0,0 +1172,本文研究了以K416B 合金为研究对象,研究了合金元素W、Al、Ti、Hf 含量的变化、稀土元素的添加、浇注温度和冷却方式对合金组织的影响,尤其是对其中富钨相形状、数量、分布的影响,探讨了组织变化的规律,从成分和制备方法上分析了减小合金成分偏析、组织细化等的影响因素。论文选题合理、难易程度适当,工作量饱满,图表清晰,文字基本通顺。,0,1,0,1,0,0,1,1,0,0,0,0,0,0 +2230,1.该论文的选题符合企业管理专业培养方向,论文的结构合理,关注的问题具有一定的理论价值与实践价值。该论文的论证过程较为严谨,能较为熟练地掌握研究工具和研究方法。2,该论文的英文摘要翻译相对粗糙,需要认真翻译。建议翻译后,找专业人士斧正。3.论文行文过程出现了许多长句,导致诸多语句不通顺,需要重新整理,尽力使语句通顺。4.该论文使用量表为7级量表,7级量表使用并不普遍,建议问卷使用5级量表。5.该论文在创新方面较弱,无明显创新论文总体上达到硕士学位论文水平,同意修改后参加论文答辩。,0,1,-1,0,0,0,0,-1,0,0,0,-1,0,0 +274,该论文主要对密封圈试验台液压控制系统进行了研究,该控制系统采用压力闭环的方式,不仅在工程上更加易于实现,同时在精度控制方面也具有良好的操作性。在液压控制系统设计的基础上,对控制系统进行了数学建模和分析,绘制了控制系统的传递函数,并通过伯德图分析了系统的稳定性。通过AMESim仿真平台,对比例减压阀、非对称油缸、波纹管等进行仿真建模,搭建了完整的压力闭环控制系统,并进行特性分析。最后,通过PID控制对系统进行校正,提高了压力闭环控制的精度。 论文选题具有一定的工程应用价值,立论正确,分析较严谨,结构基本合理,符合科技论文的写作规范。但论文研究内容缺乏一定的创新性,数学建模和AMESim仿真分析之间的关系没有说清楚。既然已经搭建了液压控制系统,论文就应该添加实验验证,不然论文不完整。,0,1,0,0,0,0,1,0,1,0,0,-1,0,0 +923,该文基于辽宁省水稻、小麦和玉米三大粮食作物的产量和价格数据,采用基于互信息的Vine Copula模型构建了关于三大粮食作物产量和价格的高维相依风险模型,并根据该模型计算了多作物联合收入保险的费率。该研究有效解决了单一作物保险忽略不同作物间相互影响导致费率厘定偏差,投保多种作物导致保费重复缴纳等问题。因此,该研究对于提高农作物收入保险定价的合理性和准确性,促进农业保险多样化和可持续发展具有一定的实际意义。论文写作基本规范,叙述流畅,是一篇良好的硕士学位论文。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +1912,论文针对换热器板片深度,开展自动检测技术研究,相对于人工测量,具有较好的研究意义和应用价值。但是,研究内容比较单薄,研究工作量不大,不够深入,特别是整体论文研究缺乏创新性。 对仪器科学与技术的知识掌握一般,从第七章 检测系统测试与误差分析,可以清楚的看出这一点。 论文文字表达错误较多,语句严重不通顺,甚至无法阅读无法理解。 有些章节几乎没有真正的研究内容,完全可以删除或者合并。,0,1,0,-1,-1,0,-1,-1,0,0,0,-1,-1,0 +2753,论文选题具有一定理论与实践意义,作者能够搜集一定数据与文献进行分析与研究,文章结构安排总体上较为合理,逻辑较为清晰。格式较规范,但研究结论写得太简单,原因是提出假设时没有明确具体的理论依据,评估增值率——并购绩效产生负向影响,一个外部三方机构的评估结果,如何影响绩效的,具体路径是什么?具体支撑理论是什么?提出假设时应该就这一问题明确。同样,第二个假设管理者过度自信能够强化这种负向作用,为何,理论基础及具体机理是什么?这些重要问题论述得不清楚.,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +2248,本毕业论文基于修正的EVA模型对环保企业的价值评估进行案例分析,有利于丰富和完善我国EVA模型在环保企业的应用研究,有利于提升EVA模型在不同行业应用的适用性,选题符合专业培养要求。本文采用案例分析的方式分析EVA模型在环保行业的修正与应用,丰富了该领域的案例分析研究,具有一定的新颖性,同时为环保行业更加准确地评估企业价值提高一定的借鉴与思考。本文结合环保企业的特性,确定出可以帮助环保企业评估出真实价值的7个修正项目:利息支出、商誉、相关减值准备、递延所得税、研发费用、营业外收支、在建工程,并在案例分析中验证了所选择的会计调节项目是正确和高效的,有利于帮助环保企业从长期视角出发为未来发展做出更好决策。本文不足和建议:第一,存在部分错别字和标点符号使用不规范的问题,应予以细致检查并改正。例如把顿号错用为逗号、“即”错用为“既”等。第二,部分内容与标题结合不够充分。例如第三章分析EVA指标应用于环保企业的具体优势时,前三点分析只阐述了EVA指标的应用优势,并没有明确指出其与环保企业之间的关系。第三,公式的下标编辑有误。例如公式3-4中明显未对相应指标中的字母做下标处理。第四,案例分析对象首创环保为上交所主板A股,与研究创新点中提到的“尝试解决非主板企业EVA价值评估研究较少问题”的说法有矛盾。第五,文章图表的题注位置有误,表格题注一般在表格上方,图片题注一般在图片下方。第六,选取的首创环保公司为上市环保公司的龙头企业,代表性值得商榷,建议再选取其他环保企业进行比较分析,对文章结论加以佐证;同时,将文章提到的运用PEST分析法和波特五力模型选取案例的详细过程描述出来,为环保企业选择该方法提供实践指导性和参考性。总体而言,本毕业论文达到硕士学位论文水平的要求,同意该学位论文参加答辩。,0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +1766,论文研究了某康复机器人的建模与控制问题,论文针对康复者质量变化和速度约束情况下的控制提出了相应的控制方法,选题具有较好的理论价值和实际意义。论文建立了质量变化时的某机器人运动学模型和动力学模型,提出一种非线性鲁棒控制算法。论文针对速度约束下的控制问题,建立了约束方程和优化指标,提出一种鲁棒控制与预测控制相结合的算法,并基于李雅普诺夫函数进行了稳定性证明,完成了仿真分析。论文表明作者具有较好的理论知识基础,论文逻辑清晰,结论可信。,0,1,0,0,1,0,0,0,1,0,1,0,0,0 +251,该论文选题具有一定的理论意义和实用价值,该论文介绍了三轴气浮台的国内外研究现状,并针对粒子群算法、常用优化算法等相关理论进行简介,具备了一定的查阅文献资料的能力,论文研究内容、研究背景和设计目标明确,研究思路清晰。 对三轴气浮台的组成及不平衡力矩产生原因进行了分析,以重力梯度不平衡力矩为基础,推导出不平衡力矩的产生形式以及基本方程形式。 该论文依据多种算法理论对三轴气浮台进行了动力学分析,不平衡力矩分析,优化设计,得出当气浮台台体绕水平轴旋转过程中,呈正弦函数规律变化;当缩成夹角角度为45°时,其不平衡力矩产生的数值为最大。当台体倾斜角度为90°时,不平衡力矩数值最小为零的结论。提出材料选取的建议以及退火系数等相关系数的取值,该论文的研究结果具有一定的参考价值,在研究方法上具有一定的创新能力。 论文立论正确,撰写认真,数据图表清晰,研究工作量饱满,达到研究生训练要求。 论文结构合理,书写较规范,逻辑结构清晰,文字表达较流畅,建议作为硕士学位论文安排答辩。,0,1,1,0,0,0,1,1,1,0,0,1,0,0 +1596,论文对棉花期权套保的研究具有较好的实用价值,对模型的研究和实证比较的分析结论比较可靠,可以为我国商品期货市场交易提供参考。作为文章第五部分的实证分析,尚需结合系统的论述,案例分析的可操作性(可以结合投资实践的效果)需要深入论证,克服案例实践段选取的随机性。文章研究思路清晰,写作基本规范,写作表达方面仍有提升空间,达到硕士学位毕业论文水平。,0,0,0,0,0,0,1,-1,1,1,1,1,0,0 +149,本文以庞大集团作为研究对象,在介绍公司的基本情况、组织架构和业务流程之后,通过项目质量分析和财务比率分析,提示公司营运资金结构管理和项目管理现状及不足;进一步地基于渠道管理方法对公司营运资金进行分析和评价,发现公司在采购渠道和销售渠道上存在的一系列问题;最后针对上述不足,提出营运资金管理改进措施。论文选题具备鲜明的行业特征,具有一定的应用价值,对前期的文献进行了初步的梳理和归纳,运用一定的方法对案例资料进行了计算与分析,所得到的研究结论对汽车经销行业企业的营运资金管理具有一定的参考价值。论文整体条理基本清楚,概念基本清晰,有一定的分析,结构基本完整,文字表述基本流畅。,0,1,1,0,0,0,0,1,1,0,0,1,0,0 +1582,论文对大学生青年马克思主义者培养问题进行研究,选题具有重要的理论和现实意义。论文梳理了国内外与本选题相关的研究成果,材料较为丰富,反映了作者基本掌握国内外相关研究成果,有较好的文献综述能力。论文阐析了大学生青年马克思主义者培养的相关概念、理论基础和演进历程,结合实证调研分析大学生青年马克思主义者培养过程中存在的问题,并提出对策。论文结构合理,层次清楚,重点突出,资料较翔实,内容比较丰富,论述清楚,语言流畅,写作规范,突出优点在于通过问卷调查掌握当今大学生青年马克思主义者培养的第一手资料,有说服力,反映了作者有较好的专业基础知识和写作能力,具备独立从事科学研究的能力。 论文虽有不足,总体上达到硕士论文水平要求,同意参加论文答辩。,0,1,1,1,1,1,1,1,1,0,0,0,0,0 +694,生存安全是一个宏观抽象的领域,但又是涉及到国家安全全领域、社会生活方方面面、人民群众整体安全的一个个具体的方面的问题,从整体性和不同剖面对生存安全的研究具有较大的价值,因此,该论文的选题具有较好的实践价值和理论意义。 论文能够对生存安全的现状通过事件的描述开展了讨论,对生存安全的问题兄不同的角度、不同维度开展面上研究。 论文的写作基本规范,但结合研究题目来看,逻辑不够清晰、结构有缺失。需要进一步修改完善。,0,1,0,0,0,0,1,0,-1,0,0,0,0,0 +2443,该论文是针对多移动机器人协同任务规划问题展开机器人路径规划、任务分配两个方面的研究,首先选择改进A*算法进行路径规划研究,其次是基于改进遗传算法和A*算法研究任务分配问题。研究工作有一定的个人见解,但是缺乏一定的创新性和时新性,文章组织结构合理,但文中基础工作和原理介绍过多。综上,文章达到了硕士学位的水平,同意修改后答辩。问题1、主题不具体,不能反映文章的主要研究点;2、建议摘要第三点可以不要;3、研究点比较传统,摘要没有指出当前对于该问题的研究近况,不能提出本文研究点的时新性和研究必要性;4、国内外研究现状最后应该落脚到作者自己的发现问题及研究观点,要体现研究价值和意义;5、文中公式间距太大;6、文中提到A*算法已经在路径规划方面得到较多的研究和改进,而3.2的改进依然是基于A*算法本身的问题出发进行分析,没有基于研究现状进行分析改进;7、建议重新斟酌第四章题目写法。,0,0,-1,0,0,0,-1,0,0,0,0,-1,0,0 +1170,本文研究了ARIMA模型和BP神经网络模型融合情感分析的股票价格预测方法,提出的方法能够对价格趋势做一定程度的预测,研究具有较好的实践意义。文中通过对真实的数据进行搜集和整理,并构建了情感词典,其工作量较大,为后续工作奠定了基础,并通过实验比对证明了本文提出的方法的有效性,以及融入情感分析对价格预测的意义。 现有的深度学习方法已经被广泛的应用在股票价格预测中,然而文章没有深入对现有的方法进行深刻的分析,没有较好的比对不同方法之间的差异性和特点,分析内容不够全面。实验中仅就ARIMA模型、BP模型、ARIMA模型-BP模型进行了分析和比对,可以说明方法的有效性。但是缺乏和其他常用方法如GARCH、 BP-RBF,说明本文采用的方法和其他常用方法相比较的性能。,0,0,0,1,0,0,0,0,0,0,0,1,0,0 +151,本文以启明星辰、深桑达、中兵红箭三家上市公司再并购过程中发生的业绩承诺补偿案例为研究对象,对大股东承诺补偿方式进行了详细的阐述分析,为上市公司在并购过程中大股东承诺补偿方式的选择提供借鉴,因此,本文的选题有一定的价值。本文对国内外相关文献进行梳理,运用事件研究、案例分析、比较分析等多种方法对现行企业并购过程中大股东承诺补偿方式进行分析,最终,从各方面提出相应的启示,分析全面,条理清晰。本文表达较为清晰,语言通顺,文字、表格、图片等格式规范。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1862,论文在研究管理者行为与股价崩盘风险关系基础上,进一步研究引入融资融券对管理者行为与股价崩盘风险的影响,选题具有理论及现实意义。论文分析了国内外相关研究现状,阐述了融资融券、股价崩盘风险概念和相关理论基础,分析了管理者行为对股价崩盘风险的影响、引入融资融券对管理者行为与股价崩盘风险关系的影响,进行了实证研究设计、实证分析,给出实证结论并提出建议。反映作者学科知识掌握比较扎实,具有一定分析及解决实际问题能力。论文结构合理,技术方法正确,逻辑性比较强,写作比较规范,工作量比较饱满。论文成果对实际工作有实用价值。,0,1,0,1,0,0,1,0,1,1,0,1,0,0 +867, 钢琴曲《讽刺》OP.17音乐分析与演奏技巧研究一文,文章阐述有着一定的条理性,文字基本流畅,但不够全面和深入。 文章论述有两大重点,即音乐分析和演奏技巧研究,关于音乐分析的部分,尤其不够全面。 建议修改后再进行论文答辩。 分析调性与和声特点中,论述均较为简单概括,不够全面和深入。尤其是和声特点的研究论述不够全面。这首作品是普罗科菲耶夫近现代的早期代表作品,这部作品中,作曲家有着独特的和声与调性创作,在传统写作技法基础上,体现了作曲家新的创作理念和编配手法,值得笔者认真分析和论述,对更好的演奏这部作品的力度和调整演奏方式,才更加有研究意义和实际价值。,0,0,0,0,0,0,0,1,1,0,0,0,-1,0 +2582,经济建设是党和国家的中心工作,党的领导必须在经济工作中得到体现,必须落实到我国经济工作和制度建设的每一领域和各个环节。论文基于历史演进逻辑,从制度层面较全面系统地梳理了党在不同历史时期领导经济工作的理论和实践探索,并总结了党领导经济工作制度建设的基本经验。论文选题有较强的理论和实践意义,总体上论述比较充分,语句通顺,结构较合理,基本达到硕士学位论文水平。不过,论文存在的问题和不足之处主要如下:第一,论文格式不规范。不要将绪论部分作为论文第一章,目录中不要有些地方是三级标题,有些地方却是二级标题;第二,论文标题不够简练,需进一步凝练;第三,部分地方逻辑不够清晰。如把社会主义市场经济理论作为新中国成立以来党领导经济工作制度建设的理论基础,在逻辑上有些行不通。第四,部分地方表达不够准确。如:论文部分地方将“党领导经济工作制度”与“党领导经济工作制度建设”相混淆。第六章第二部分党领导经济工作制度建设的基本经验“始终坚持以马克思主义理论为指导”不够有针对性,建议改作“始终坚持以公有制为主体”。这里就不一一赘述。,0,1,0,0,0,0,-1,-1,1,0,0,0,0,0 +2506,该论文主要对水电站明钢管进行极限承载力、失效模式以及体系可靠度分析研究。首先对明钢管研究背景及研究现状做了较详细的介绍,在此基础上分别利用解析法与有限元法对水电站明钢管进行受力分析,识别潜在的危险失效区域,然后基于EMRM上限法提出水电站明钢管极限承载力和失效模式分析的基准体法和子模型法,进一步地,考虑明钢管结构中实际存在的各种随机因素影响,结合SRSM和基准体法及子模型法,建立了基于随机极限承载力的明钢管体系可靠度分析方法,最后结合明钢管体系可靠度指标与目标可靠度指标,建立了明钢管基于体系可靠度的安全评估方法。该论文有一定创新性,层次分明、文笔比较流畅,反映出作者具有比较扎实的基础理论知识和系统宽广的专业知识,该论文达到硕士学位论文水平,同意其参加论文答辩。该论文存在的问题和不足之处如下:1、论文个别地方存在打字错误,有漏字情况,比如图1-5、第6章第1句话;2、72页图5-1下面的结果分析以及73页图5-2下面的结果分析存在多处错误,主要是大于和小于写反,请作者更正。,0,0,0,0,1,0,0,-1,1,0,0,1,0,0 +789,永磁同步电机应用非常广泛,因此本文选题具有重要的工程意义。论文在将非线性的六相 PMSM 数学模型转换为解耦的六相 PMSM 数学模型基础上, 在 d-q 坐标系下采用磁场定向控制,利用 MATLAB/Simulink 搭建六相 PMSM 控制系统,对其进行仿真验证。 其次,论文分析了六相 PMSM 出现两相定子绕组开路故障时的磁势(正交和非正交两 种情况),在故障后切换到电流滞环控制进行磁势补偿。在 MATLAB/Simulink 中实 现六相 PMSM 容错补偿控制仿真实验。 再次,论文将滑模变 结构控制应用到六相 PMSM 容错控制系统中,引入新型趋近律,设计滑模速度控制器。 最后,搭建基于 TMS320F28335 的六相 PMSM 驱动系统,并对电源模块、采样模块、 PWM 输出模块等主要模块作出相关介绍。 从整体看,论文推导严谨、正确,表明作者掌握了该学科的基本知识,论文写作比较规范,逻辑性强。论文结构合理,表达正确,框架正确,图表规范。但论文的创新性并不突出。,0,1,0,0,1,0,1,1,1,1,0,-1,0,0 +2945,硕士学位论文《视网膜/LGN-V1视觉机制在轮廓检测中的应用研究》选题具有实用参考价值。作者系统地查阅相关文献,掌握了该领域内的研究现状和发展方向。论文研究了卷积神经网络和生物视觉系统间的相关性,并利用卷积神经网络模拟生物视觉机制,包括视网膜/LGN-V1视觉通路、视皮层交互机制、视觉注意力机制、颜色编码机制,提出了基于卷积神经网络的仿生型轮廓检测模型。论文主要工作如下:1、从视网膜/LGN-V1视觉通路架构以及各个视觉功能区所提取视觉特征的特点出发,将VGG16的五大阶段与视觉通路中各功能区相对应,提出了VGG16编码网络与视觉通路的对应关系。2、基于CNN与视觉通路层次架构上的相似性,从增强编码网络特征表达能力入手,提出学习视觉通路网络构架。论文结构严整,思路清楚,撰写规范,达到硕士学位论文水平,同意其参加硕士论文答辩。,0,1,1,0,0,0,1,0,1,0,0,0,0,0 +2251,本翻译任务来源于译者实习期间的一手材料,实践性强,符合专业培养目标要求。翻译实践报告基于生态翻译学的“三维转换”,结合原语文本特征和中英语言差异,探讨源语文本和译入语文本在语言、交际和文化三个维度上的生态平衡问题。报告写作态度端正,思路比较清晰,框架较为合理,文献梳理有特色,也比较深入,但是对报告的字体部分研究,如译文语言、交际和文化三个维度的划分,建议要更加科学和系统化,避免“虎头蛇尾”和主观臆断,避免为分析而分析。,0,0,1,0,0,0,0,0,1,0,-1,0,0,1 +2891,论文针对工程问题进行了研究,具有重要的意义。论文从飞行器建模、控制算法设计等方面展开了系统研究,并针对关键问题进行了详细说明。纵观全文,工作量饱满,写作较规范,创新性较好,但以下方面需要进一步完善:(1)建议更改论文题目,“基于四轴飞行器的地面物体自动跟随系统设计系统设计”更为”基于四轴飞行器的地面物体自动跟随研究“;(2)摘要需要进一步提炼,特别是最后两小段;(3)第1章中很多段落只有一两句话,过于零散,需要进一步整合;(4)第1章文献综述中并没有指出目前研究存在的问题,需要完善;(5)图2.8线性粗细与其他图形不协调,需要修改;(6)图3.5三个角度跟踪都一样,工程中是否合理?需要解释;(7)既然已经把无人机对象模型建立,而PID控制属于无模型控制,建议设计基于模型的控制器,并与PID控制进行比较;(8)硬件设计中要突出自己的工作特点;(9)象图5-3大小与其他部分不协调,需要修改;(10)象图5-20这样的流程图,应该是子程序形式,结尾不是”结束”;(11)建议第5、6章合到一起;(12)部分参考文献格式不规范,注意将所有参考文献的期号和卷号写法统一。,-1,0,-1,1,0,0,1,-1,-1,-1,0,1,0,0 +2185,作者以Fe-Cr-C 堆焊合金为研究对象,通过自制焊材,研究了在一定焊接工艺下,B、Y和Ce含量对堆焊层的物相组成、微观组织、硬度及耐磨性的影响,建立了B、Y和Ce添加量与堆焊层耐磨性之间的联系,其研究结果对提高Fe-Cr-C 堆焊合金耐磨性及开发更高性能的堆焊合金材料具有一定的实际指导作用。作者查阅了大量文献,掌握了Fe-Cr-C 堆焊合金研究动态,其研究成果具有较高的实用价值,论文工作量较大,结论合理。,0,0,1,1,0,0,0,0,0,0,1,0,0,0 +1025,《内控视角下 MS 银行虚假理财案例分析》以MS银行2017年发生的一起涉案金额高达 30 亿虚假理财为案例,立足于内控失效的角度,对这一案例背后的银行内控制度进行了分析。相对而言,选题有一定的新意,对案例的分析有一定的深度,使用的方法较为一般,文章的内容较为丰富。但是同时,文章存在着结构不清晰、论证不确凿等较大的问题(具体见下面),建议进行重大修改才能够进行答辩。,0,1,0,0,0,0,0,-1,-1,-1,0,0,0,0 +86,本论文针对风电场集群有功功率控制、风火储协同调频调节等问题进行研究,选题具有理论意义与应用价值。论文分析了风电场集群的互补性和平稳性问题,研究了风电场有功功率调整及集群层多源协调并网控制方法。研究了在系统协调层引入储能电站,辅助风电系统参与频率调节问题。对风电场集群一次调频控制策略进行研究,以风电场为研究对象,研究基于模糊增益 PI 控制的 有功功率控制策略。论文通过仿真计算对文中研究方案的有效性进行了验证。论文研究取得了一些有价值的结果。论文基本上达到了硕士学位论文水平。 建议在作者对论文进行修改后,为作者组织学位论文答辩。,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +1434,该文对跨境追逃追赃国际司法合作问题进行研究,其选题具有一定理论价值和实践意义。就论文本身的写作看,其论据较为确实、充分,论证较为严密,写作较为规范,论文的系统性、条理性较强,反映出作者具有较为扎实的法学基础理论和专门知识功底,以及较为熟练运用不同研究方法、独立从事创造性科学研究的能力。在论文的创新性方面,作者立足于跨境追逃追赃国际司法合作的立法现状和真实案例,总结出国际层面和国内层面的现存问题,有针对性地对域外国家及地区的有益经验进行借鉴,并从搭建覆盖多层次的国际信息共享平台、完善国内相关立法、建立中国特色资产分享制度、明确没收程序与缺席审判程序的适用情形以及完善防逃制度机制,科学设置防逃程序等方面提出了一些有价值的建议,论文达到硕士研究生毕业论文应达到的水平。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +866, 该论文的写作逻辑有所进步,但论文中仍存在着一些问题: 论文的第二章和第三章没有进行仔细的修改完善,内容粗泛,其中还有错误的表述。例如,论文第二章第二节的“旋律特点”这部分,作者认为这首奏鸣曲在第一乐章中“营造出一种轻松、欢快的气氛”,但事实上“轻松、欢快”并不符合本乐章的音乐精神。在“节奏特点”这部分,论文出现了“第一乐章以四分之三拍为主,第二乐章则采用了六八拍”这样的低级错误,请作者认真读谱,看清每个乐章拍号,改正写作错误。 第三章第三节谈节奏,出现“在曲目中有多种不同速度的乐句,例如快板、缓板、跳板等”此类文字,“缓板、跳板”不是规范的音乐术语,所以不知作者所云为何物?本章最后一句“在需要表现清晰明朗的音乐效果时,可以使用普通踏板”,请问什么是普通踏板?此外,分析踏板用法也应有相对应的谱例。 论文中不断出现重复性的文字和内容,如研究背景中的两个段落,其第一句几乎完全相同,等等。第一章时代背景和创作历程这两节的部分内容重叠,而关于创作历程的论述却不充分。 ,0,0,0,0,0,0,0,-1,1,0,0,0,0,0 +214,浮动油封安装在采煤机摇臂输出轴两端,以防止煤尘浸入保护轴类零件。浮动油封的质量、可靠性及其使用寿命对采煤设备的安全运行至关重要。由于浮动油封O形密封圈的橡胶密封材料、接触应力等因素,对浮动油封密封效果影响严重,而侧向压力、橡胶硬度、接触面间摩擦系数因素与接触应力之间的关系,决定着橡胶圈的变形程度以及接触面间的相对滑动,同时也影响橡胶磨损失效的进程。为此,论文为了提高橡胶密封圈的性能,对橡胶密封圈的磨损失效机理进行了研究。通过对浮动油封的动态性能进行分析,建立了理想的浮动油封数学模型,确定了无泄漏量的情况下密封圈所承受的外界压力的大小。应用有限元数值模拟方法,分析了侧向压力、摩擦系数、橡胶硬度对O形橡胶密封圈接触应力的影响,获得了侧向压力、摩擦系数和橡胶硬度的参考值,同时利用自行设计摩擦磨损试验机,对不同载荷、转速和介质条件下,O形橡胶密封圈的耐磨性进行了实验研究,分析了其O形密封圈磨损机理。论文研究结果,将为浮动油封O形密封圈接触应分析提供理论支持,也将为浮动油封在实际工程中的应用具有一定指导意义。该论文理论分析合理,条理清楚,图标规范,文笔流畅。该论文表明作者掌握了本门学科坚实的基础理论和系统的专门知识,具备了从事科学研究和独立担负专门技术工作的能力。同意该生进行硕士学位论文答辩。,0,0,0,0,1,1,1,1,1,0,0,1,0,0 +471,论文围绕自适应滤波算法在水声通信、视频电话等应用中存在的问题,结合最小误差熵准则和块稀疏比例矩阵,提出了基于最小误差熵准则的块稀疏成比例仿射投影(MEE-BS-PAPA)自适应滤波算法。该算法用最小误差熵准则替代传统算法中基于二阶统计量的代价函数,解决了传统算法在非高斯噪声下鲁棒性差的问题,并通过引入牛顿法解决传统算法在输入为强相关性信号时收敛速度变差的问题。同时,基于稀疏信号处理理论,将比例矩阵引入到更新方程中以充分利用系统的块稀疏特性来进一步加快算法的收敛速度。最后,将 MEE-BS-PAPA 算法应用到在回声消除中,分别在高斯噪声与非高斯噪声环境下对输入信号为语音信号时算法的收敛性以及跟踪性进行了比较和分析。仿真结果证明MEE-BS-PAPA 算法具有更好的收敛性和跟踪性。 论文选题具有一定的工程应用价值。论文工作量饱满,结构合理,条理清晰,参考文献引用比较规范,完全达到了硕士学位论文的要求,建议进行硕士学位论文答辩。,0,1,0,1,0,0,1,0,1,0,0,0,0,0 +2561,该选题来源于翻译实践,所选源语文本语言特色鲜明,难度适中,尚未有译本;报告体现了一定的问题意识,发现的问题具有普遍性,具有一定的应用价值。翻译实践部分。该生能准确理解原文内容,误读和遗漏信息少;能准确理解原文内容,忠实表达对原文的理解,语言通顺流畅,符合目标语相关语言和文化规范。翻译报告部分。框架结构完整,逻辑顺畅,层次分明;主题明确,分析问题有理有据,对源语文本语体特征把握较精准,例句选取得当,论述思路清晰;整个报告文本格式规范,注释标准。尚存在的问题:2.2.3部分DifficultiesinTranslationProcedures与3.3部分FeasibilitytoGuideScientificandTechnologicalTexts未能很好地呼应,也许单一的某种翻译理论不能解决翻译实践中遇到的所有困难和问题。建议:凡是有利于解决翻译实践中所遇困难的理论都可以拿来用。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +1065,本课题针对传统潜油螺杆泵采油系统传动结构复杂,可靠性偏低,系统寿命较短的问题,对一种潜油螺杆泵直驱模块组合式永磁电机进行研究,选题符合实际,具有一定的实用参考价值。 论文采用模块组合式潜油永磁电机解决槽满率低绕组绝缘易损坏的问题,分析并优选出适合潜油电机的合理模块组合方式,设计了一台模块组合式潜油永磁电机。针对潜油电机温升,利用将机壳与原油间的热对流等效为热传导的方式,采用三维有限元法计算极限最小流速下电机的温升,总结归纳潜油永磁电机设计规律。根据麦克斯韦应力法对电机径向力波进行分析,得到多种情况下电机的径向力波表达式及时频特性,最后归纳了永磁电机径向力波成分的通用规律。在此基础上对常规潜油电机定子与模块组合式潜油永磁电机定子模态进行了分析,并将径向电磁力施加于定子齿部得到了二者的谐响应特性。为后续设计研究提供一定的参考依据。 论文工程方案设计思路清晰,写书较规范,条理清晰;分析问题较全面,具有一定的逻辑性。反应作者在本学科上具有较好的基础理论和系统的专业知识,具有从事科研工作或专门技术工作的能力,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2793,论文研发了专门用于高压油缸性能测试的高精度、高自动化的油缸试验台。确定了高压油缸试验台的设计方案,对液压系统进行了设计。对液压系统进行3D建模和装配,建立仿真模型。搭建了试验测试平台并进行了样机试验。在撰写过程中,注意以下问题:第9页,液压油牌号是45还是46?公式中变量一般采用斜体。第14页,“45号刚”是否有错误?σmax的单位是什么?功率P的单位是什么?公式中的物理量最好采用国际单位制。文字表达要准确,如下面几个词语,是否表达不合适?“回油管路内径为3mm;压力管路内径为2mm”?“水冷气”?“冷煤冷却器”?“表24”?“用户害可以”?“换向阀8中位得电”,什么是“中位得电”?哪个图上有换向阀8?液压元件的选型是否合适?如通径10mm的节流阀、单向阀、溢流阀,最大流量能否达到400升/分?,0,0,0,0,0,0,0,-1,0,0,0,0,0,0 +2233,1.论文大量篇幅都是在进行基础理论的介绍(17页之前),非核心章节占正文部分的50%,真正属于自己的内容较少。2.论文的正文只有35页,请结合本校研究生论文要求进而判断工作量是否饱满。3.论文只是使用了一个简单的工具方法评价了一个项目,创新性或者论文的贡献无法体现4.为什么采用实物期权法?实物期权法是对传统项目评价方法的补充和辅助,一般来说它比较适用于不确定性强、风险因素多、实施方案有较多可行路径的灰色决策分析背景,该项目的适用条件不清楚。5.论文第四章介绍环境效益理论,有点令人费解。6.如果按照应用论文的写作方法,应该突出问题导向,实施问题导入;如果按照科研论文的写作方法,应该强调学术研究的价值和贡献。,0,0,0,-1,0,0,0,0,0,-1,0,-1,0,0 +902,该翻译实践报告较为详细地汇报了作者基于翻译补偿理论对学术著作《想象的受众——记者如何理解和追求公众》前两章所进行的翻译实践过程与基于译例分析所总结的补偿性翻译策略,对新闻类学术著作汉译具有一定借鉴意义,但所总结的翻译补偿策略缺乏独特性和创新性。报告结构较为完整,布局较为合理性,但文献引证的规范性和语言表达的准确性与规范性有待进一步提升。译例分析较为具体,但语言表达略显冗余。另外,译例与附录译文仍需进一步打磨,力求在信的基础上达到雅。,0,1,0,0,0,0,-1,-1,1,0,0,-1,0,0 +504,论文选题于新能源领域中的风机故障诊断问题,符合专业培养方向,顺应当今社会发展潮流,选题有意义。论文通过绪论的描述,对风机精确建模有一定的困难,顺理成章提出“基于子空间辨识与 K-L 散度分析的风电机组故障诊断方法”,并搭建了实验仿真平台予以验证。工作细致,推导严谨,表明作者对系统辨识和状态评估方面有较为深刻的认识。论文结构完整,语言通顺,用词准确,前后呼应。达到硕士论文水平,同意答辩。,0,1,0,0,1,0,1,1,0,1,0,0,0,0 +1800,论文以电、气、热三个子系统构成的多能源系统为研究对象,讨论了基于潮流的互联系统的最优负荷削减量。在此基础上讨论了多能源系统的可靠性计算方法,并利用蒙特卡洛方法,以14节点多能源系统进行了算例验证。 该生参考了国内外关于多能源系统的可靠性评估的论文,但论述不够充分,文献综述略显薄弱。论文结构较合理,篇幅适中,但创新性不足。论文基本符合要求。,0,0,-1,0,0,0,0,0,1,0,0,-1,0,0 +1992,潜油螺杆泵采油系统得到广泛应用,其定子耐磨性能直接决定螺杆泵使用寿命。论文开展丁腈橡胶与聚氯乙烯复合体系摩擦性能的分子模拟研究,旨在提高定子的耐磨性能,进而延长潜油螺杆泵使用寿命,具有一定理论意义和应用前景。 论文利用统计力学对分子运动方程进行求解,模拟所研究材料的分子体系结构,从原子角度观察复合体系的性能变化。论文研究具有一定创新性。 论文写作条理清晰,层次分明,逻辑严密,语言流畅。 论文表明论文作者具有较扎实的基础理论知识和系统的专业知识,对相关领域的国内外研究动态有较深入的了解,具有较强的科学研究能力和独立工作能力。论文达到工程硕士学位水平。 同意答辩。,0,1,1,1,1,0,0,1,1,0,0,1,0,0 +503,"论文选题有重大的理论意义或实用价值,对学科的发展和生态文明建设起着一定的影响作用。该作者阅读了大量的资料,工作量比较饱满,比较了解论文的国内外研究现状,对本论文所要解决问题的目的及意义论述清晰,研究方向明确。研究成果具有一定的理论意义或实用价值,论文难易适当。从论文写作看,作者具有较好的专业理论知识,具有独立从事科学研究的能力,能够独立完成论文中的相关工作。论文阐述条理比较清楚,层次结构具有一定的逻辑性;论文撰写比较规范,语言比较流畅,有较强的文字表达能力。论文符合硕士论文要求,同意答辩。",0,1,1,1,1,1,1,1,1,0,0,1,0,1 +698,室内机器人的定位、地图构建及路径规划问题是目前研究的热点问题,已经有很多算法来解决该类问题。本文在调研现有导航算法的基础上,重点研究了改进的RBPF-SLAM算法及改进的A*和动态窗口DWA路径规划算法,并给出相应的仿真结果。针对搭建的硬件平台完成实验测试,并对结果进行了分析。总体上,论文内容层次合理,表述清楚,图表清晰,达到硕士毕业论文水平要求。,0,0,0,0,0,0,1,1,1,0,0,0,0,0 +2635,论文分别采用废弃轻质砖渣并以不同替代率替代普通粗骨料、以不同掺量聚丙烯纤维作为增强增韧材料的方式,制作了LC15级混凝土试块,测试了抗压强度、轴心抗压强度、劈拉强度和抗折强度,以及吸水率和干缩性能等物理力学参数,并通过SEM和XRD分析了基体混凝土中聚丙烯纤维的存在状态和混凝土孔隙结构及水化产物形貌等,分析了砖渣替代率和聚丙烯纤维掺量对上述特征参数的影响规律,分析了制备内隔墙板的可行性。论文成果具有一定的理论意义和工程应用参考价值。论文写作较规范,行文较通顺,工作量尚可,达到了工学硕士学位论文基本要求。存在问题:1、题目宜适当修改。因论文并未研究预制墙板,只是研究了基体材料的基本物理力学性能,仅对预制墙板作出了简单可行性分析。可改为“轻质砖渣和聚丙烯纤维对轻质墙板混凝土性能影响试验研究”,仅供参考;2、摘要和论文结论写作欠规范,缺乏条理性,重点不突出;3、对于第4章的干缩试验测试结果,应依据相关文献(包括规范等)对预制墙板的干缩性能要求给出定量评价,并与第5章的可行性分析相联系;4、第5章分析了制作内隔墙板的可行性,缺乏深度,仅为泛泛,且砖渣掺量并未达到50%;5、废弃砖渣的来源应介绍,如产地、年产量、主要原材等,以考虑是否具有工业可行性;6、既然表2-8是按正交试验设计的,那么就应该给出正交试验结果。请补充完善;7、其他存在的一些细节问题如下:1)吸水率应明确吸水时间,如24h等;2)单位应统一采用国际单位制;个别单位换算错误;3)通识符号使用错误,如立方体抗压强度符号为fc(MPa)等;4)变量及上下标、常量和单位书写格式应规范;5)英文文献偏少,且信息不全、格式不规范(著作和学位论文同样要给出引用的起止页码)。8、中、英文表达及标点符号运用尚需认真斟酌、推敲。,-1,0,-1,1,0,0,1,1,-1,0,0,1,0,0 +2573,"花生油中黄曲霉毒素的危害已引起人们的广泛关注。为了探讨体外利用DNA消除黄曲霉毒素B1(AFB1)的机理,该生论文基于DNA和AFB1通过嵌插模式相互作用的原理,通过共振光散射光谱探究了AFB1和DNA相互作用的强度和特征。通过DNA嵌插和磁珠分离,利用DNA去除水溶液和花生油中的AFB1,进一步优化了基于DNA嵌插作用的DNA选择性吸附AFB1的方法,并探讨了温度,pH值,DNA用量等多种因素的影响。此外,该论文通过速率模型、粒子间扩散模型、等温吸附模型和热力学模型等分析了DNA吸附AFB1的过程,探索和揭示了DNA选择性吸附AFB1的吸附机理。论文选题目标明确,实验设计科学、合理,思路清晰,创新性强,具有重要的理论意义和潜在的应用价值,为进一步深入研究奠定了良好基础。通观整篇论文可以发现,该生具有较扎实的理论基础和专业知识,对所研究领域阅读较广泛,综述简练完整,较好的掌握了国内外发展动态。论文条理清晰,层次分明,结构严谨,文字通顺,技术用语准确。达到了硕士学位论文水平。论文存在的不足之处:1.参考文献书写欠规范,如期刊名称有的用全程,有的用简写,格式不统一:很多文献如[82]-[86]以及[114][115][118][119][126][131][132][141][149][152]等,作者写作格式与其它文献不统一;建议文献[15,16,17][85,86,87][110,111,112]分别改为[15-17][85-87][110-112]。2.表5-2中,DNAdose项,上标数据应在同一行,建议重新排版。",0,1,1,0,1,0,-1,1,1,0,0,0,0,0 +2301,本文对广西森林碳汇经济价值进行评估,利用超越道格拉斯生产函数和VAR模型,对广西森林碳汇碳储量、经济价值以及其影响因进行分析,选题服务国家“双碳”战略目标,具有较为重要的现实意义,在研究方法对以往以静态平衡分析为主的研究有一定的补充作用,对于我国森林碳汇经济价值评估及发展有一定的参考价值。文章逻辑结构安排较为合理,论证过程较为严谨,论据较为充分,研究成果具有一定应用价值,相关建议对实践有一定指导意义。文章中第四章标题“森林碳汇经济价值评估”应改为“广西省森林碳汇经济价值评估”,更符合内容。文中“表4-112020年各个碳汇交易市场的碳汇价格及森林碳汇经济价值”缺乏森林碳汇储量值。文章总体达到硕士学位论文水平,同意修改后答辩。,0,1,0,0,0,0,0,0,1,0,0,1,0,0 +2917,论文整体质量较差。1.选题符合专业要求,但是创新兴不足,文中所列示创新点不成立。2.研究方法描述不清晰。3.文献综述没有做好。文献质量较差,1/3中文文献来自学位论文。4.评估对象界定不准确:“比亚迪新能源汽车的商标权”,“比亚迪企业商标权”“比亚迪企业商标权”的内容是不一样的,作者混同一个。5.对于实物期权法比收益法结论更精确的说法及其理由的表述生硬。6.文中有较多错别字,英文翻译存在较多的错误。,0,-1,-1,0,0,0,-1,0,0,-1,0,0,0,0 +1155,本文提出了采用永磁-磁阻-笼条组合式转子的同步电机设计方法,运用有限元方法对电机结构参数进行对比分析,为电机设计提供了理论依据。通过仿真分析验证了所提设计方法的有效性。论文选题有一定的理论意义及工程实用价值,论文结构合理,层次分明,逻辑清晰,语言表达基本准确,公式、图表较规范,符合硕士研究生论文要求,达到硕士研究生学位论文水平,同意参加硕士学位论文答辩。,0,1,0,0,0,0,1,1,1,1,0,0,0,0 +1257,电机风扇的性能直接影响电机的散热能力,从而影响电机的使用寿命。选题结合工程实际,具有一定的应用和推广价值。 作者通过文献和资料查阅,分析了离心风扇流体分析研究现状及反求工程的应用现状,采用反求工程技术实现了电动扭矩扳手上高速电机散热风扇模型重建,结合数值计算方法对离心风扇进行了流场分析,分析了叶片数对风扇的压力、 速度、流线等参数的影响,并在此基础上进行了结构改进,为后续产品的优化设计和生产具有一定的指导意义。 论文格式规范,结构合理、条理清晰;研究成果表明作者掌握了相关基础理论及知识,具有一定的工程分析能力。论文达到了硕士学位论文水平,同意提交答辩。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +2807,论文以“贵州苗族蜡染在现代设计中的创新实践”为题,从视觉艺术、语言符号学等视角出发,对具有代表性的贵州丹寨县和织金县苗族蜡染进行对比研究,总结贵州苗族蜡染的地域特点。通过面料肌理再造与现代主义绘画视角结合的方法,创新探索贵州苗族蜡染文化创意产品的新形态。论文从选题、内容、实践几个层面反映出一定的理论研究价值与实践价值;前期调研工作量饱满,表述较为清晰,层次结构分明。表明作者已初步具备独立从事科学研究与设计实践的能力。但在设计成果运用上,比如标致品牌的创立、延展、样机的使用等环节稍显简单,设计语言与产品的结合略显单薄。同意文章修改后参加答辩。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +377,论文《多能互补微网分层控制与运行优化》研究了多能互补微网的三层运行控制策略,并建立了多能互补微网半实物平台。其主要工作包括:(1)通过多能互补微网三层控制策略,实现对瞬态功率波动的自动分配和4小时周短时预测输出功率的优化调整;(2)采用基于下垂控制策略的底层逆变器控制,在微源或负荷波动时,对各微源瞬时功率的均匀分配;(3)采用粒子群算法,对各微源、设备的输出功率以4小时为周期进行优化,提高了多能互补微网的经济性和环保性;(4)将经济、环保权重作为优化变量,采用数据包络分析算法,实现多能互补微网运行在经济、环境以及电能质量相对最优的工况。 论文选题具有一定的实际意义,内容完整;图、表清晰;撰写规范;理论分析正确;仿真正确;;结论合理。说明该同学已掌握了本专业基础知识和专业知识,具有一定的解决工程实际问题的能力。同意论文提交答辩。,0,1,0,0,1,1,1,0,0,0,1,0,0,0 +1691,论文围绕实际工程的桥梁转体施工过程,通过理论分析、数值模拟和现场监测相结合的方法,对大跨度、不等跨的斜拉桥采用转体施工工艺进行了系统的研究。探讨了球铰安装、现场称重及配重、牵引力配置及转体同步控制等环节的技术要点,并结合数值模拟结果进行预分析,为桥梁转体施工控制提供参考依据。研究结论及成果对类似工程应用具有良好的参考性、指导性。 论文研究的选题具有实用性及良好的应用前景,研究过程与结论逻辑性较强,文字表达及写作的规范性良好。,0,1,0,0,0,0,1,1,1,0,1,0,0,0 +2166,准确计算并分析损耗特性对提高全电飞机电机功率密度与运行可靠性具有重要理论意义与工程价值。论文以一台全电飞机用外转子永磁同步电机为例,首先进行了电磁设计,然后对不同硅钢片进行了磁特性测试并计算铁磁损耗,最后对不同运行条件下电机损耗特性进行了分析。 论文逻辑清楚、内容完整、语句通顺、格式较规范,整体质量较好。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1981,镁及其合金,质量轻,耐用性好,资源广泛等特点,可用作结构材料,承担构件的力学性能,已广泛用于汽车,航空,电子等领域,每年的消耗量以指数曲线上升。因此,研究镁合金的特点,开发新型镁合金,具有重要的实际意义。 论文通过分析Mg-Cu-Gd(Zn-Y)系合金的凝固行为,分析了Mg-Cu-Gd合金的基体组织及析出相,并由此来判断Mg-Cu-Gd合金的组织细化方法及热裂倾向。 论文选题新颖,研究方向明确。 论文作者广泛查阅了国内外相关文献,掌握了相关领域的发展方向,设计出Mg-Cu-Gd合金的实验方案,实验路线合理,测试结果合理,可行性及可信度强。 作者对实验结果进行了细致的分析,具有一定的独立科研能力,能够把所学知识用于实践。 论文工作量适中,从实验设计到结果分析及结论比较完善,有一定的合理性和逻辑性。 论文写作基本规范,表达清晰,语言通顺,逻辑性强。 论文达到了硕士学位的要求,同意进行学位答辩。,0,1,1,1,1,1,1,1,1,0,0,0,0,0 +987,"绪论部分的二、研究现状中最后一句“弥补了在咏叹调《晴朗的一天》目前的研究领域中对于巧巧桑这一人物解读的不足之处""中“不足之处”,措辞不当。第二章 的标题”《晴朗的一天》剧情简介及在剧中的作用‘’,咏叹调的“剧情介绍”及咏叹调在剧中的“作用”,这些措辞是否准确。 文章中所有明引都应该注明出处,应适当地将一些暗引改为明引,并且适当地添加脚注和尾注。 引用的意大利语歌词原文应前后一致(有的地方引用有的地方不引用)。",0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +213,风电机组运行过程中会产生大量相关数据,如何管理和利用好这些进功率曲线的建模分析研究就成为风电发展必须面对问题。而数据挖掘技术可以基于历史据进行分析,及早发现潜在异常表征有效降低故障率。因此完成 基于数据驱动的风电机组功率曲线异常识别的方法研究,不仅具有深刻理论价值而且广泛实际应用价值。论文《基于数据驱动的风电机组功率曲线异常识别方法研究》在系统地研究风电机组基础上,针对功率曲线复杂多变的特性建立了基于历史数据参优化学模型 。该础上,针对功率曲线复杂多变的特性建立了基于历史数据参优化学模型。该采用含参 Logistic方程进行启发式表达,再引入粒子群算法参数优化和确定。为了较准的描述内在动力学机制,以 BP 神经网络为研究主体,建立了遗传算法优化的功率曲线模型。其中模型预测能是通过风电机组实数据进行训练来实现的。通过对风电机组运行状态的统计分析,提出了功率曲线异常检测和达标符合度的计算方法。最后以东北地区某风电场为实例,验证了上述是有效可行。论文体现该文作者具备计算数学的研究基础,以及基本掌握了该领域的相关研究方法和基本的分析方法,论文语言流畅,行文合理,逻辑性强,写作规范。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +628,论文针对金属材料的高温氧化腐问题,利用热喷涂技术在TA1上制备了纯Al涂层和Ni/Al复合涂层,提高工件的高温抗氧化性能和服役寿命,研究了700℃,800℃和900℃下不同时间的反应扩渗过程,包括图层微观组织形貌、物相组成以及界面元素分布等。论文选题具有重要的科学意义和一定的工程价值,论文反映出作者掌握了一定的金属材料表面工程基本知识和表面处理技术专业技能,阐明了热喷涂温度和时间等工艺参数对Tal材料表面热喷涂纯铝和Ni/Al微观组织和性能影响规律,为该技术的工业化生产参数优化提供了技术指导和实验数据,具有一定的研究价值。论文写作逻辑性较强,文字表述较为简洁、专业。论文达到硕士学位论文要求,同意推荐其参加毕业论文答辩,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +2902,论文针对实际水下环境航行时机器鱼对航向稳定性要求,开展了机器鱼姿态调整的控制器算法设计研究。建立了机器鱼的外部流体力学模型和关节动力学模型,根据机器鱼波状摆动的运动规律,确定一种中枢模式发生器(CPG)运动控制模型来生成各关节对应的驱动信号,达到航向调整的目的;考虑到CPG控制器参数整定规律难以掌握等问题,采用了一种进化类寻优算法粒子群优化(PSO)算法对CPG中涉及航向调整的参数进行优化;然后,通过建立简单的机器鱼数学模型,利用辨识器网络的实时输入输出数据对控制器神经网络进行训练,获得了完整的模型参考神经网络控制器。论文选题具有重要的理论意义及实用价值,紧扣学科前沿发展方向,作者对本学科的基础理论及应用有较完整的掌握,达到硕士学位论文水平的要求。但论文存在以下问题及不足:1.论文的整体写作水平要提高,语言表述不够精简,存在口语化现象,如摘要、绪论等章节中均存在表述不够精练等问题;2.文献引用不够规范,如P4,1.2.2节的国内外研究现状中关于国内研究现状后面部分的陈述内容提及部分学者的研究情况,但没有引用其文献等;3.论文的部分公式推导跟所给出对应的原理分析图之间存在脱节问题。如P6-P7,公式(2-2)是根据图2-1的分析来推导的,但公式中的速度ν在图中没有标明;公式(2-3)中的a1、a2、a3等参数也没有做任何说明等等;4.论文的图表整体不够规范。存在坐标轴无标注、图表不清晰、方框图的信号综合处没有标注极性等;5.P18,第三章的第一段提到“……。本章旨在从CPG数学模型出发,对其参数进行优化,以达到提高控制性能的要求。……”,仿真给出了优化后的偏差变化曲线,是否可以同时给出优化前的曲线,这样进行对比效果更好。,0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +2964,文章围绕无人驾驶车辆的轨迹跟踪控制问题展开研究,以模型预测控制算法为理论依据,建立了相应模型,设计了横向控制器,纵向控制器,以及横纵向控制器。研究具有一定实际意义,基本达到硕士学位论文水平,但仍有一些不足需要注意:1.文章在分析研究现状和背景时,文献的引用时间较陈旧,可以多分析一些近三年的研究现状和成果。2.把本文的创新点需进一步凝练指出。3.文章设计的控制器是研究的重点,但是验证却只有通过仿真验证了一下,如果条件允许,可适当加一些实际的实验验证证明设计的有效性。,0,1,-1,0,0,0,0,0,0,0,0,0,0,0 +2123,在概述相关学术文献与动态的基础上,针对商业化石墨负极材料容量较低的问题,提出利用多金属配位聚合物作为锂电负极材料,以苯六酸作为有机配体,合成了以过渡金属锰、钴(铁)、镍为配位中心离子的多金属配位聚合物,锂为固定配位中心,改变过渡金属离子锰、钴、镍的含量,利用水热法合成七种含锂多金属配位聚合物。作为锂电负极材料,测试其电化学性能。论文选题切合实际,具有一定的理论价值和现实意义。 论文数据详实,图表规范,概念清晰,写作较为规范;表明作者具有一定的基本理论和专业知识水平和从事科研工作的能力。建议对论文修改后答辩。,0,1,0,1,1,1,1,1,0,0,0,0,0,0 +2341,本文研究了瑞利粒子在线偏振平面波光场中增强的横向光力,对增强的光力进行溯源分析挖掘其物理机制。基于全波模拟方法计算了不同镀层材料及不同镀层厚度情况下的横向光力,结果表面镀银微粒的势能和光捕获强度都有较大增强,有利于实现稳定的光学捕获;进一步基于多极展开理论将上述不同镀层材料的横向光学梯度力进行分解解析,发现增强的梯度力主要源于镀层微粒中激发的电四极。本论文相关结果为实现横向光力的增强提供理论依据和数据参考。评审意见如下:1.该研究从瑞利微粒在平面波光场中的横向光力的理论计算入手,结构光场及粒子参数设计合理,数据可靠,得出了较为可靠的结论,为实际应用中丰富光学操控手段和实现粒子的稳定捕获提供了理论依据,有一定的创新性。2.论文作者掌握了光学微操控领域相关的基础理论和模拟计算方法,广泛搜集光力及其相关应用的国内外最新研究进展,具备从事光学微操控领域科研工作的能力。3.论文书写规范,结构合理,逻辑清晰,文字表达流畅,但少量语句的表达不够严密,如正文第2页中“即表现为光速运动且兼具质量与动量的光子流”,与前半句不能很好衔接;正文第36页中“研究发现增强的梯度力主要由镀层微粒中激发的电四极对梯度力的贡献”语句不太通顺……该论文达到硕士学位论文水平的要求,同意答辩!,0,0,0,0,1,1,0,1,1,0,0,1,0,0 +1850,论文在传统Inconel 625药芯焊丝的基础上,通过添加N元素降低Ni元素,调节替他合金成分使熔敷金属达到优异的耐蚀性,制备出了一种新型含氮镍基药芯焊丝,对含氮镍基熔敷金属和Inconel 625熔敷金属进行了显微组织、物相结构和耐蚀性分析,并对其腐蚀机理进行了研究,研制出的新型含氮镍基药芯焊丝在高温下的耐腐蚀性能优于现有的Inconel 625药芯焊丝,论文选题和研究结果具有较好的理论和实际应用价值。 论文书写比较规范,逻辑比较清晰,实验方案合理,实验数据可靠,理论分析有一定深度,反映了作者具有较扎实的专业知识和较强的理论水平。论文摘要中没有交代基体材料;绪论第一部分需要说明课题的背景和意义;堆焊成型性较差;有一些错别字问题;参考文献标点符号格式不统一。 论文总体上达到了硕士论文相关要求,同意答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1422,该硕士学位论文对RV减速器的结构及其主要部件进行了多角度分析,并对其轴承疲劳寿命研究进行了较为深入的研究,论文选题具有较好的工程意义和实用价值。 论文的主要工作和创新点如下: (1)建立了RV减速器的三维模型,并进行了运动学仿真分析,对RV减速器摆线轮和针齿啮合传动及摆线轮支撑轴承进行了受力分析; (2)对RV减速器主要部件进行了瞬态动力学分析,分析了行星轮、针齿摆线轮和轴承的应力分布情况,为RV减速器结构设计提供了依据;对摆线轮、曲柄轴和行星架进行了模态分析,表明了其具有良好的抗振性。 (3)对RV减速器摆线轮支撑轴承的疲劳寿命进行了计算和分析,引入粒子群算法对轴承结构参数进行了优化,优化结果提高了RV减速器轴承的疲劳寿命。 论文工作有一定的创新性,工作量尚可,但论文撰写不规范,存在大量表述不清的地方,语言可读性差,且文中图表及公式存在较多错误,对部分图表的分析及研究内容的总结也不到位,需对论文进行认真、细致的修改后,才能答辩。,0,1,0,1,0,0,-1,0,0,0,0,1,0,0 +1939,论文针对无人驾驶技术领域关键问题,面向道路场景的图像语义分割开展研究。论文以DeeplabV3+网络和全连接条件随机场为基础,针对图像语义分割中可能会出现的像素特征信息的细节损失、像素的空间上下文特征信息丢失、分割边缘像素时发生的模糊、不连续等问题,运用图像语义分割主、子网络模式,并结合多种改进算法,开展以下多方面研究工作。针对全卷积网络在进行卷积、池化操作过程中的像素特征信息的细节损失和空间上下文信息丢失的问题,运用基于互质因子的密集空洞卷积方法代替标准空洞卷积,扩大卷积核的感受野,高效提取并保存图像特征信息。针对图像语义分割中的目标物体边缘部分模糊、不连续的问题,以全连接条件随机场为基础,实现边缘像素特征信息的提取与保存。完成图像语义分割子网络gPb-HOFCCRF模型设计。实验证明改进方法的可行性。 论文撰写规范,文献综述充分,体系结构清晰,内容完整,数学推导正确,参考文献规范。 鉴于以上情况,表明该生已经具备独立从事科研工作的能力,推荐其参加硕士论文答辩。,0,0,1,0,0,1,1,0,1,0,0,0,0,0 +1291,该论文的选题具有一定的理论价值和现实意义。论文选取了高管薪酬粘性作为中介变量、企业生命周期作为调节变量,以2014-2019年的A股上市公司为样本,通过多元线性回归分析,对高管权利与企业创新进行了分析,说明了高管薪酬粘性可以加强高管权利对企业创新的促进作用,以及企业处于不同生命周期时,高管权利对企业创新的影响也有所不同。有助于指导企业通过完善公司管理制度、合理设置高管权利,完善薪酬激励体制和决策机制来提升创新效率具有一定的现实意义。 论文通过规范分析和多元回归分析法来论证自己的观点,研究方法较为科学。论文在以下几个方面有所创新:一是引入高管薪酬粘性作为中介变量来研究高管权利对企业创新的影响;二是同时考虑了企业所处生命周期作为调节变量的影响。 论文有相当的理论深度,论证清晰有力。论据充分可靠,数据准确,资料翔实,文献综述丰富而规范。论文结构严谨,逻辑性强,文笔流畅,文章格式符合学术规范。反映作者具有较强的独立科研能力。 论文达到了硕士学位论文水平,同意其参加论文答辩。,0,1,1,0,0,1,1,1,1,1,1,1,1,0 +2723,论文选题紧扣社会热点,回应居民需求,具有现实意义和实践价值。论文结构完整,条理清晰,研究方法和理论基础运用恰当,实务过程完整详细,论文结论较为客观。论文利用社区策划方法进行的服务方案设计合理可行,体现出社工服务的专业性。论文的不足之处在于,实务过程中社工发挥什么作业,扮演什么的角色,社工与托管机构、与社区的关系与互动,以及如何处理社工、社区和机构的定位与关系,论文对此没有清楚交代,导致改论文呈现的活动层面较多,但是更深层的社工价值伦理层面较少。论文达到了硕士学位论文水平,同意答辩。,0,1,0,0,0,0,0,0,1,1,1,0,-1,0 +2431,该论文对并购重组评估值与交易定价差异影响因素进行研究,并以沪深A股上市公司的经验数据来进行实证研究,选题具有一定的理论和实践意义,内容结构合理,方法恰当,达到了硕士学位论文水平。但论文还存在一些问题和不足之处:1.本文的研究意义写作比较牵强;2.文献综述标题一和标题二不是并列关系,标题一可以适当修改;3.本文的创新不够突出;4.对于为什么会在诸多的影响因素中,选择评估方法、关联关系、并购重组类型和支付方式这四种,文中只是表述为从资产评估角度和并购重组角度以及数据获取的可能性,论述不够充分;5.样本选取的时间范围截止到2020年12月31日,而不是2021年12月31日。以上意见仅供参考,谢谢!,0,1,0,0,0,0,-1,0,1,1,0,-1,0,0 +2486,"该论文以尖晶石结构的ZnMn2O4为基质,通过Ni离子掺杂和CuO复合,构建两种不同的水系锌离子电池正极材料,通过XRD,XPS,SEM和TEM表征,分析了和合成材料的结构和组成特性,通过电化学测试,测试了组装的扣式电池的循环稳定性和和放电比容量。论文语言较为严谨,数据分析合理,数据充分,体现了作者扎实的理论基础和在电池方面的知识的系统性,达到了硕士学位论文水平。论文中存在一些问题需要修改。主要如下:P1第5行,“电能存储系统(EES)系统”多了“系统”一词。论文中表述Zn2+离子是一种重复性的表述,Zn2+已经表示有锌离子的意思了。P19倒数第8行,“至于温度为”应改为“置于温度为”。P25图3-6表述应改为图3-5,P26图3-6应改为图3-5,其后图片需要应相应调整,例如图3-7改过图3-6等。P27倒数第9行衍射峰应对XRD表征而言,此处在CV曲线中表述衍射应给予修改。P36的本章小结中应将组合的扣式电磁的电化学性数字如稳定性,放电比电容等在结论中总结给出。",0,0,0,0,1,0,-1,-1,0,0,0,0,0,0 +1805,论文以风电塔架结构的力学性能分析为选题,以带肋锥形塔架为研究对象,通过模型试验和数值模拟相结合研究了试件的受力性能,探讨了径厚比对结构力学性能的影响,在某大型风电机组的基础上进行了部分设计。针对不同工况进行了稳态的流固耦合分析和瞬态动力学方面的研究 。分析了塔架的屈曲问题, 研究了结构的稳定性。研究结论得到具有一定实用意义,但文中有大量不足,经过大修后方可参加答辩。,0,0,0,0,0,0,0,0,0,0,1,0,0,0 +2810,论文以“土工合成材料界面作用机理及加筋新旧路堤试验分析”为题,开展了室内界面试验来进一步完善筋土界面相互作用机理;同时结合现场加筋新旧路堤试验并建立等比例的加筋新旧路堤数值模型找到影响路堤差异沉降的关键因素,为实际加筋土工程建设提供参考依据。论文主题突出、结构严谨、逻辑性强,图表、公式规范,所采用技术路线以及相关理论正确,结论可信,成果丰富。达到硕士研究生的培养目标和学位论文的要求,同意提交答辩。,0,0,0,0,0,0,1,0,1,1,1,0,0,0 +1777,论文研究旋转开断方式真空开关极间电场分布的影响规律,相比直拉式开断,旋转式可能具有的优势和特点,值得比较好的研究,选题具有很好的理论意义,并且未来对于实际工程应用也可能具有指导价值,选题很好,但是总体研究工作的体量、难度,感觉和选题的目标相比,显得单薄。另外,论文在撰写规范、格式和整体逻辑性上需要进一步完善,具体建议如下。,0,1,0,-1,0,0,-1,0,-1,0,0,0,0,0 +1870,论文针对不同尺度下无铰链式柔顺机构开展研究工作,选题方向正确,但工程背景不明确;研究内容对微型柔顺机构设计具有一定的理论意义及工程价值。论文主要工作如下: 1、针对机构传统宏观拓扑优化结果进行了分析,分析了其优化结果存在的不足之处。 在系统分析虚铰产生的内部机理的基础上,对传统优化模型进行改进。并由实际机构作为算例证实了该模型的真实性以及避免虚铰产生的有效性。 2、引入偶应力理论建立微观尺度下柔顺机构拓扑优化模型。经实例证明,该模型可有效地完成微观尺度下无铰链式柔顺机构的设计工作。 3、基于宏观尺度下传统与改进优化模型所设计反向位移、柔性夹钳、转向器等柔顺机构最优拓扑形式,对其进行三维建模。对其进行有限元分析进一步说明了改进后构型的优势。 对宏观尺度下改进后模型所获得的最优拓扑形式进行谐响应分析,以获得改进后机构实际生产应用中的最佳工作频率段,提高其工作生产的效率。 论文撰写思路清晰,公式引用正确,图表规范,反映作者有一定独立分析和解决问题的能力。,0,1,0,0,0,1,1,0,1,0,0,0,0,0 +822,直流偏磁直接影响变压器运行的稳定性,严重时会导致变压器发热甚至烧毁,论文对比变压器直流偏磁的振动信号开展研究,提出相应的检测与抑制措施,具有一定的工程与实际意义,论文的主要工作包括:(1)研究了变压器直流偏磁的振动产生激励与传播途径,为直流偏磁的振动检测奠定了基础;(2)分析了不同直流偏磁特征的谐波特点,并提出不同频段信息熵作为判断直流偏磁的方法;(3)提出了抑制直流偏磁的措施。论文工作扎实,达到了硕士论文的要求,建议提交答辩。,0,0,0,1,0,0,0,0,0,0,0,0,0,0 +957,论文选择唐宋诗词的教学作为研究对象,进行了高级阶段古诗词教学设计的研究。作者首先对某高校的学习者进行了问卷调查,了解古诗词教学的现状。在此基础上,作者对相关的教学因素进行了分析,之后选择李白的《将进酒》和苏轼的《念奴娇·赤壁怀古》作为教学内容,分别进行了教学设计思路的展示。之后又对教学设计方案进行了反思,针对教学设计中的不足提出了相应的解决策略。 论文选题能够体现本专业的特点,也能够从教学实际出发,整体结构基本合理,内容也基本完整,达到了硕士毕业论文的要求,同意作者参加答辩。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +108,本文对虚拟手术的软组织建模技术与碰撞检测算法进行了研究,综述了国内外相关领域研究现状和发展方向,选题正确,将粘弹理论作为建模理论基础,为建立软组织模型提供理论依据,通过对软组织建模技术中的几何建模方法研究,提出了将面模型覆盖在物理模型外表面,四面体网格当作物理模型的支撑骨架,利用混合建模思想,基于四面体拓补结构,通过将三参量粘弹结构与填充球模型结合,提出了软组织粘弹性混合填充球模型,利用混合建模思想,基于四面体拓补结构,通过将三参量粘弹结构与填充球模型结合,提出了软组织粘弹性混合填充球模型,通过对力反馈算法的理论研究,采用弹簧-阻尼模型计算反馈力,通过对力觉渲染,增加虚拟仿真系统的真实感。论文结构严谨,写作规范,叙述清晰,符合工学硕士学位论文撰写要求。,0,1,1,0,0,0,1,1,1,0,0,0,0,0 +1762,论文研究了基于深度学习的麻花钻头视觉检测,选题新颖,具有理论意义和应用价值。作者阅读了国内外有关文献,掌握了研究领域国内外发展动态。论文取得的主要结论和创新点如下: (1)研究了不同图像处理手段的原理和效果,通过对比不同的图像处理方法对于图像效果的影响,编写了针对不同测量参数的图像处理程序,并在图像灰度化、函数变换和平滑处理后进行了锐化处理,有效提高了边缘定位精度。 (2)通过比较四种传统边缘检测算子对麻花钻头图像边缘的不同检测效果,提出了基于深度学习理论得边缘检测方法,利用卷积神经网络泛化能力,建立了基于RCF神经网络的边缘检测模型,实现了边缘特征的提取。 (3)设计了视觉测量方案,并使用误差分析法对麻花钻视觉检测系统的测量精度进行了验证,结果表明系统能够满足检测要求。 论文结构严谨,条理清晰,写作规范,逻辑性强。论文反映出作者已掌握有关的基础理论,具有系统扎实的专业知识,具备了独立从事科研工作的能力。,0,1,1,0,1,1,1,0,1,0,0,0,0,0 +2914,论文针对自由曲面加工误差的在线检测、预测和补偿展开研究。作者阅读和归纳了相关文献,综述较为全面,论文选取自由曲面加工误差的在线检测、预测和补偿作为研究对象,具有一定的理论意义和重要工程应用价值。论文采用基于AP聚类的蚁群算法,求解大规模自由曲面测点路径规划问题,采用基于模拟退火算法优化的BP神经网络算法与基于序列二次规划方法优化的普通克里金法,提高了加工误差预测精度,具有一定创新性;论文文字表述流畅,有较强逻辑性;论文的理论推导与实验验证,表明作者具有较扎实的理论基础和较强的动手能力,具有独立从事科学研究的能力,达到了硕士学位论文水平。论文存在的不足之处:1、许多图、表、公式与相邻文字段落或相邻图、表、公式间距过大,可适当缩减,会更美观;2、图2-8、图2-13、图2-15、图3-6、图4-17、图4-18、图4-29、图4-30等图表的正文描述在图表之后,图表的正文描述应该在对应图、表之前;3、58页语句“如图4-17与图4-18”似乎应为“如图4-27与图4-28”;4、表2-1、表2-2、表2-3等大多数表,一侧或两侧边界超出文档边界之外,可适当减小各列间距,保证表两侧边界在文档边界之内,个别表不居中;5、通常要求图、表标题及其中文字比正文小一号,流程图中内容过于拥挤,文字过小;6、24条参考文献标注不合规范,整篇论文文献52条,文献总阅读量稍显不足。,0,1,1,0,1,1,-1,0,0,0,0,0,0,0 +997,作者利用 2017 年至 2021 年的土地利用覆被和大气污染统计数据,在归纳总结大气污染时空特征、浓度变化、驱动因素以及土地覆被时空特征、时空演变和驱动因素的基础上,利用多元线性回归模型,借助 R 语言、ArcGIS 等工具对大气污染物浓度和土地覆被之间的响应进行了研究,系统的阐释了大气污染与土地覆被响应关系。该稿论文结构比较合理,思路比较清晰,论述充分,图表美观,研究方法可行,所得结论正确,比上一稿有了很大改进,达到了学位硕士研究生的毕业论文要求。,0,0,0,0,0,0,1,0,1,1,1,0,0,0 +1654,论文利用深度学习方法对计算机视觉领域的超分辨率图像重建问题展开研究,在真实的场景应用中,超分辨率图像重建,是一个具有广泛应用价值的热门研究方向。论文选题合理,整体逻辑清晰,结构完整,格式基本规范,完成了所提方法的实验验证,但是论文的创新不足,实验不够充分,并且文中存在多处内容表述不准确、严谨,且存在一些表述错误的语句,建议进一步补充和最新方法的实验对比,并完善实验内容,对指出的问题仔细修改,同意修改论文后参加答辩。,0,1,0,0,0,0,0,-1,1,0,0,0,0,0 +126,"本文通过直接酯化熔融缩聚工艺运用1, 4-环己烷二甲醇改性PBT共聚酯。对产物进行结构和性能研究。本论文具有商业意义与价值,能够为制备改性聚酯膜提供新途径、新方法。物质性能检测手段选择合理,能够反映物质性能。综述部分内容安排合理,较好涉及近几年的相关研究。整篇文章复合科学研究逻辑。文字表述基本符合,文中图表需要优化。总体来讲,本论文满足硕士毕业要求。",0,0,1,0,0,0,1,0,0,0,0,0,0,0 +393,论文采用视觉测量技术,针对铸造用泡沫陶瓷过滤网外观缺陷检测系统进行了设计研究,选题具有一定的理论意义和现实的应用价值。论文从需求分析出发,进行了方案设计、关键器件的选型、相关算法研究和实验验证,整体上逻辑清晰,层次分明。工作内容以设计为主,也较符合工程硕士论文的要求。论文内容也反映出申请者掌握了一定的学科知识。论文撰写条理,基本符合科技论文写作规范。,0,1,0,0,1,0,1,0,0,0,0,0,0,0 +741,文章类似选题太多,重复性研究现象较为突出,研究难度大,同时从这个意义上讲该文选题意义和价值相对有限。文章占用了一定的中外文文献资料,表明作者掌握了一定的学科知识,作者在概述消费者撤回权含义、演变和特征基础上,分析了我国的相关立法现状和问题,阐述了德美英三国相关制度及其对我国的借鉴,最后从立法、信用制度、保障力度等方面提出了自己的一些观点或建议,有一定的参考价值,文章逻辑结构基本合理,有一定的论证,用语较为清楚。,0,-1,0,0,1,0,0,1,1,0,0,0,0,0 +1530,课题以电动汽车轮毂电机为研究对象,课题具有较高的实用价值,对括对学科发展和科技进步具有重要作用。阅读了大量本研究领域文献资料并做了论述,了解本课题的国内外研究动态的掌握及其评述。论文对电动汽车轮毂电机的温度场、流体场分析工作具有创新性,论文工作量较大。论文工作表明作者具有独立从事科学研究的工作能力 ,并较为全面地掌握了专业理论知识。论文概念清晰、分析严谨。为动汽车轮毂永磁同步电机设计给出了合理性指导作用。论文基波符合规范性,具有一定的文字表达能力。是一篇较好的硕士研究生论文。,0,1,1,1,1,1,1,1,1,0,1,1,0,0 +2642,论文关注中国企业走出去的专利商业化策略选择问题,具有较强的现实意义;结合相关理论构建了演化博弈模型,并模拟仿真及验证,具有一定的理论意义;文献综述能够较好地反映相关研究的发展状况;理论基础较为扎实、系统,研究方法选取得当,运用较为合理,分析较为全面、深入,工作量较为饱满,体现了作者较好地分析问题与解决问题的能力;论文结构较为严谨,论述推理逻辑性较强,行文规范,学风严谨。整体上看,论文质量较高,达到了硕士学位论文的水平。但仍存在一些问题需要进一步完善,主要如下:(1)论文以“一带一路”倡议下中国-东盟合作为研究背景及研究对象,本是文章很重要的特色和重点所在,但在模型构建中并未体现研究对象的特殊性。似乎将文中的模型用于别的研究对象也是适用的。建议将研究对象的主要特征纳入到模型构建与分析中,从而更好地彰显本研究的研究特色与价值。(2)关于“三个可能的创新点”的论述还有待商榷。一方面,作者自述的“研究视角创新”与“研究内容创新”有很大的重叠;另一方面,将博弈论与仿真模拟运用于专利商业化策略研究也并非首次。(3)文献综述对相关研究前沿的梳理还不够到位,未能充分展示已有研究的发展动态,这可能导致文章的理论贡献受到质疑。(4)关于理论贡献和实践启示的阐述不够清晰。建议在最后一章不仅要对研究结论予以归纳总结,还应阐述文章的理论贡献和实践启示。这样一方面是对前文的呼应,增强自洽性;另一方面,也能更彰显论文的价值。(5)部分文字表达不够准确,部分语言不够通顺,请作者认真校对。,0,1,1,1,1,0,1,1,1,0,-1,0,0,1 +1624,论文基于可靠度计算方法,对文中钢栈桥在不同工况下的钢管桩和承重梁进行了可靠性分析。论文整体结构是合理的,但也有很多需要认真修改和改进的地方。如文中没有明确使用了何种可靠度计算方法;论文没有明确创新点,应在第1章补充;国内外研究现状大多是文献的罗列,系统性不强;“钢栈桥”的具体概念不清;钢栈桥的设计规范不明确,等等。,0,0,-1,0,0,0,0,0,1,0,0,-1,0,0 +117,本文利用风险管理理论与实际房地产项目相结合,对沈阳A公司房地产投资项目各个阶段的风险进行了详细研究与分析,这样的选题兼顾理论与实践价值,符合专业学位研究生的论文选题准则。 绪论部分全面阐述了研究背景和研究意义,国内外研究现状、研究内容与方法,第二章做了较为细致的文献综述和理论基础阐述,为全文做了很好的铺垫。 论文主体部分作者按照风险识别、风险评估和风险控制的程序,阐述了A公司房地产项目风险管理的全流程:作者首先结合沈阳 A 公司房地产项目的具体情况利用德尔菲法、SWOT分析法等针对项目的投资决策阶段、项目前期阶段、项目建设阶段以及项目租售阶段的风险进行了识别;然后利用盈亏平衡法对识别出来的风险进行评估;接下来根据评估出来的风险提出相应的应对措施及控制方法。通过三个步骤,建立了一套适合沈阳 A 公司房地产项目的风险管理体系,以期能够帮助投资商进行风险管理。 作者研究思路清晰,研究内容充分,研究方法正确,研究结果和结论可靠。全文结构严密,层次清晰,写作通顺,格式规范,达到了专业学位研究生的论文水平,是一篇很好的硕士学位论文。,0,1,1,0,0,0,1,1,1,1,1,0,0,0 +823,直线磁悬浮电机在数控机床进给平台中的应用,对于研制高速高精度数控机床具有重要的意义,论文以直线磁悬浮同步电动机的控制策略为研究对象,选题具有重要的理论意义与工程实用价值。 论文作者综述了国内外对于直线磁悬浮同步电机技术的研究,在此基础之上,主要完成了如下工作: 1 设计了直线磁悬浮同步电动机H_inf 控制策略,仿真验证了控制器的有效性; 2 设计了直线磁悬浮同步电动机的扰动观测器,通过仿真分析,表明了扰动观测器的有效性; 3 应用粒子群算法优化控制器的设计。 论文书写规范,论述清晰;理论分析与算例验证相结合;论文表明了作者扎实的专业基础,较强的分析问题,解决问题的能力。论文工作达到了硕士论文要求,建议组织硕士论文答辩。,0,1,0,0,1,0,1,1,0,1,0,0,0,0 +2084,学位申请人以纳米石墨烯改性绝缘油为研究对象,对比分析了老化前后45#绝缘油和改性绝缘油的绝缘特性及其变化,选题具有一定的创新性。 开题文献调研部分重点集中在纳米Al2O3、BN、Fe3O4、TiO2等添加剂添加与变压器油形成的复合绝缘油的绝缘特性,这些填充物与石墨烯虽同属纳米量级,但是这些纳米填充物显然与石墨烯有所区别。调研缺少应有的石墨烯相关资料(甚至是绝缘油加入石墨烯之后的绝缘特性;如果文献未有相关报道,则说明选题更具创新性),建议补充调研。 GB/T1408是固体绝缘实验标准,不适用数据分析。通常工频耐压实验结果应进行weibull分析,IEEE930和国家标准29310均对绝缘击穿数据分析有详细要求,建议学位申请人据此对实验数据进行分析。建议耐压实验数据按相关规定进行。 电子、离子位移极化时间等显然不是学位申请人的研究结论,而是电介质物理学的基本知识,属前辈学者的研究性结论,非常识性知识,应有相关文献或专著,以增加论文严谨性。 相关比较分析结果完全可以放在同一张图中,以增加可读性,方便分析读者比较分析,建议学位申请人修改。,0,1,-1,0,0,0,-1,0,0,0,-1,1,0,0 +2777,论文选题有较好的现实意义,论文研究思路较好,研究结构基本合理,研究方法基本可行,论文逻辑性较好,语言较流畅,研究结论有一定的现实参考价值。存在的问题:1、(一)研究思路应该为“研究内容”2、第三章不能称之为“理论基础”,比如后面的“市场有效性假说”可以作为理论基础。建议:第三章可与第二章合并为“相关概念与文献综述”。前面三章都是基本介绍,开头太重。,0,0,0,0,0,0,-1,1,1,0,0,1,0,0 +1637,论文借助XRD、单因素与正交试验法,探索了地聚物砂浆形成机理,揭示了地聚物砂浆力学性能对不同影响因素的明感性,明确了地聚物不同矿物原料的最有配合比,研究的成果对于地聚物材料的应用和发展具有较为明显的理论和工程意义。 论文选题有一定的实用价值,促进了新型材料的发展。笔者基本了解国内外对于地聚物材料的研究现状,并提出了本论文的研究意义。通过试验研究,形成了具有一定参考价值的研究成果,其研究结论也具备一定的合理性。论文作者具备了基本的研究能力,初步掌握了相关基础理论知识。,0,1,1,0,1,1,0,0,0,0,1,0,0,0 +1133,本文对磁致伸缩震动能量收集器进行设计与分析,并采用模拟和实验方法对收集性能和可靠性进行了研究,选题具有重要意义,但本文提出的足部振动能量收集器结构及工作原理已有类似相关报道,缺乏创新性,且结构分析过于简单,缺少核心动力学性能分析,与实验对比略显牵强。建议增加相关数值分析,使论文结构更为严谨,机理更为清楚。 论文撰写较为规范,研究结果符合逻辑,可以修改后直接答辩。,0,1,0,0,0,0,1,0,-1,0,1,-1,0,0 +1732,论文选题有一定的理论及实践意义。论文从道德争议案件入手,立足司法实践,通过对过去道德争议案件的分析,归纳总结出阻碍我国司法道德性实现的障碍及原因,并主要从司法主体和方法论角度对我国司法道德性的完善提出建议。 论文结构完整,层次清晰,能够综合运用所学法学知识和相关理论、方法分析解决问题,研究方法得当。在研究内容方面,研究资料运用比较合理、得当,论证比较充分,符合法学专业特点。 论文不足之处在于:有些地方引用了他人观点但缺乏注释;此外需要加强校对,消除错别字。 综上认为,该论文达到法学硕士学位论文水平要求,同意进行答辩。,0,1,0,0,1,0,-1,0,1,1,0,0,0,0 +1364,该论文以无刷双馈电机功率绕组功率因数控制策略研究为目标,首先分析了双馈电机的结构特点及运行方式和电机转子调制的六个气隙磁场分量、无刷双馈电机的磁场调制机理、稳态运行时功率与损耗分析等内容,给出了无刷双馈电机数学模型并提出了功率绕组磁场定向的功率绕组功率因数控制策略;之后,利用仿真软件建立模型,在一定的参数下进行了较为简单的仿真验证,给出了必要的有效性结论。,0,0,0,0,0,0,0,0,0,0,1,0,0,0 +84,本论文在概述相关学术文献与动态的基础上,介绍了子带自适应滤波算法对稀疏系统的性能局限性。首先,引入零吸引因子使算法增加了对权向量的范数约束,其次融合比例矩阵的思想,得到了基于?律的零吸引比例符号子带自适应滤波算法。最后,通过仿真实验验证了该算法具有较好的收敛性能、稳态性能,也能有效抑制非高斯和高斯背景下的声反馈现象。选题具有一定的理论价值和现实意义。 论文结构严谨,层次分明,逻辑性强,文笔流畅,表达清晰,重点突出。文章格式符合学术规范。反映作者具有一定的独立科研能力。 论文表明作者掌握了本专业的基本理论和分析方法。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +1906,论文针对管道漏磁内检测器获得的数据,研究漏磁数据的处理与成像(包括二维和三维成像),论文选题合理,具有重要的应用前景。 论文的主要工作如下: 1. 采用漏磁数据与灰度等级的对应方法,得到了管道的二维灰度图像,为管道特征识别提供了基础 2. 对漏磁数据进行插值并采用贝塞尔曲面生成法进行三维管道重构,可以实现管道数据可视化; 3. 通过对管道三维灰度图像进行识别处理,包括图像增强、分割和形态学算法等,可以有效识别管道的焊缝特征。 论文涉及数据的图像处理,其工作量适当,结果可信。反映了作者已经基本掌握了本领域的专业基础知识和一定的专门技术能力,具备了从事科学研究或技术开发的能力。论文达到了硕士学位论文水平。 同意组织答辩。,0,0,0,1,1,1,0,0,0,0,0,0,0,0 +105,本文对双永磁轮直线驱动装置的磁力特性与运动控制进行了研究,综述了国内外相关领域研究现状和发展方向,选题正确,推导了双永磁轮磁力驱动装置的数学模型,对双永磁轮直线驱动装置进行了仿真分析,设定了装置所需要的参数,对双永磁轮磁力驱动装置试验台进行了实验,将实验结果与理论计算结果,仿真结果进行对比分析,设计了磁力驱动装置系统动力学试验平台,对试验台进行了安装调试,利用拉格朗日定理建立了驱动装置动力学模型,根据建立的动力学数学模型与设计的双永磁轮直线驱动装置伺服控制器位置控制的仿真实验,对系统的位置阶跃信号的响应特性,位置特性等进行了具体的实验分析,通过建立驱动装置空间状态方程以及调节PID参数进行动力学仿真,对实验平台进行阶跃输入响应,编码器控制与位移传感器控制的实验研究。论文结构严谨,写作规范,叙述清晰,符合工学硕士学位论文撰写要求。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1825,论文以某装配式单塔钢斜拉桥为依托,就施工过程中代表性气候条件下因环境和太阳辐射等引起的温度变化对上部钢结构体系的影响进行了分析;论文选题有很好的工程实际背景,研究有一定的理论意义和工程实用价值;对国、内外桥梁温度有关问题,以及国内对温度对斜拉桥施工过程影响的研究现状的综述,作者对所研究的问题的国内外研究动态有着一定的较为系统的掌握;研究目的较为明确,研究内容、分析方法和技术手段有效、可行,思路较为明晰;结合施工过程中的温度实测和有限单元法数值计算,分析得到了一些有很好工程参考/实用价值的结论;论文难易程度较为适中,工作量基本饱满;对温度效应的理论分析,温度实际测试与数据分析,施工过程中和施工完成后温度效应的F.E.M数值计算分析,作者对相关基础理论和专业知识有很好的掌握,具备了初步从事应用研究的工作能力;整篇论文逻辑构架及撰写基本符合论文撰写规范。,0,1,1,1,1,1,1,0,1,1,1,0,0,0 +2333,本文选题符合硕士学位论文选题要求,思路较为清晰、语言较为流畅。论文具有一定的理论价值和现实价值,符合硕士毕业论文要求。作者能够运用所学方法研究现实问题,研究方法合理,研究较为细致、规范。希望能进一步充实本文内容。1、方法选择上篇幅过于冗余,应将重点放在案例分析或者不同方法在同一案例的比较上,更具说服力。2、研究建议尽量与研究结论一一对应,且本文缺少总结性研究结论,建议补充。3、文献综述建议按内容分类,而非国内外,这样思路更清晰。,0,1,-1,0,0,0,0,0,0,0,0,1,0,0 +1278,"该论文报道了作者采用吡唑-3, 5-二羧酸为配体,利用简单的溶剂热法和快速的微波法合成了双金属CPs,主要研究成果如下: 1. 采用简单的溶剂热法,合成了Ce-Co-CP复合物,研究表明,该类材料具有较好的电化学性能。 2.采用反应快速的微波法,合成了纳米级的Co-Ce-CP,将其在空气条件下500°C煅烧3h,最后得到了形貌大小均匀的Co3O4/CeO2纳米颗粒,研究表明,该类材料由于其独特的异质结构,是的该类材料具有较优异的电化学性能。 3.采用简单的水热法,合成了片层的Zn-Co-CP。 论文选题具有较好的应用价值,研究成果有创新性,实验方案设计,实验研究内容科学合理,实验数据可靠,理论分析正确,论文书写规范,达到硕士学位论文水平,同意参加答辩。",0,1,0,0,0,0,1,0,0,1,1,1,0,0 +2478,该论文已基本达到硕士学位论文水平。论文的不足之处与有待商榷的问题:1.文中很多地方有字词、标点符号错误,还有些地方存在语句不够通顺及语义不明的问题。如“人们的精神生活也越来越充实,影视产业也成为一个重要的发展机遇”、“随着国家有关无形资产的政策出台,网络影片的运营指标问题也随之出现”、“网络电影市场也多是大投资、大制作、大制作、低成本、有针对性的付费网片”、“爱奇艺的目标就是让在线电影的品质、透明化、规模化”、“由于网络电影版权的创造性和投资与收益之间的相关性较低”、“网络电影版权收益的主要渠道是网络电影版权收益,如果播出质量好,则会吸引广告商和衍生产品的投资,所以该部分是网络电影版权收益的关键源泉”、“本文主要运用传统的收益法,尤其是收益法,仅将静态的版权价值纳入其中,忽视了不确定的高风险收益部分,从而造成了存在较大误差的”、“纵观目前国内影视产业的研究,主要集中在传统产业的几个主要领域,对其进行评价,而对其进行评价的研究较少”、“因此,本文最后将影片的放映权,也就是通过分账的金额,来确定影片的静态使用价值”、“衍生品的市场已经发展得相当成熟,可以说是一种非常重要的资产,但在中国,这种价值并不高,是一个很受欢迎的行业”、“之所以可以判断出网络电影版权具有一定的期权特性,是因为相对于有界的制作成本来说,网络电影所到来的收益是不确定性的,以及收益稳定风险性的”,等等。2.研究背景中的前两段和论文主题联系不够紧密,可删除。3.研究背景内容过杂,重点不够突出。4.“网络电影市场也多是大投资、大制作、大制作、低成本、有针对性的付费网片”、“由于高成本、高风险,再加上网络电影的巨大潜力,使得网络电影成为了主流媒体关注的焦点”这两句话在成本问题上相矛盾。5.创新点的第一条“在网络电影版权评估中考虑了风险收益”,如何考虑的风险收益?文章确实详细的说明。6.将制片人和网络电影制作公司放在同一个段落中进行介绍,他们之间是什么关系?应该予以说明。7.有些语句间缺乏紧密的逻辑性,行文较混乱。如“收益法局限性”中的第1段,第22页第2段等。8.“实物期权模型适用性”部分的分析欠清晰,说服力不够。9.个别章节的标题可进一步斟酌确定。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +221,该论文从电网无功调节的角度,研究了风电场集群与常规电源(水、火电厂)的协调控制问题,论文的研究有一定的理论和应用价值,论文书写基本规范,条理基本清晰,表明作者在电气工程领域具备了一定的理论基础和工程实践能力。论文的深度还存在明显不足,研究存在一定的欠缺,建议作者针对提出的问题做出实质性修改后,参加硕士论文答辩并申请学位。,0,1,0,0,1,1,1,1,0,0,0,0,-1,0 +1060,RV 减速器是被广泛应用于工业机器人领域的重要的动力传输部件,作为 RV 减速器核心零件的摆线轮,其齿廓设计和修形优化方法对于RV 减速器的动力传输性能的改善具有关键性的作用,论文以RV 减速器摆线轮齿廓修形优化与传动性能分析方法作为研究内容具有一定的理论意义或实用价值。 论文写作表明:作者熟悉该领域的国内外发展动态,清楚了解所研究课题的目标和工程意义。作者掌握RV 减速器领域相关的理论知识和分析工具,基本具备独立从事该领域工程实践的能力。,0,1,1,0,1,1,0,0,0,0,0,0,0,0 +1086,本论文选题较有实践指导意义,契合当前公司治理的难点。结构较严谨,论述较规范,逻辑性较强。 在论证部分,运用了相关理论和研究方法,进行了较全面的实证分析。数据虽然来源于第二手资料,但各种变量的选择、样本的选取和分类、研究假设的提出都较规范。尤其是对研究模型结果的稳健性检验,体现了一定的科学严谨性。 研究结论和建议有一定的合理性和创新性。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +256,该论文以集中式风电集群为研究对象,对风电集群调频控制策略开展了研究工作,论文的主要成果如下:(1)通过实测数据分析了风电场和风电集群在多时间尺度的波动特性,提出了衡量风电波动特性的一般指标。(2)针对风电预测误差较大的问题,提出了一种基于机器学习算法的混合预测模型。(3)针对电网频率稳定性下降的问题,提出了基于预测信息的风电集群调频控制策略策略,该策略通过建立风电集群控制中心对各个风电场进行统一管理,参与电网调频。论文写作较规范,逻辑性较强,达到硕士论文要求,同意答辩。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +541,论文研究小型有缆水下机器人技术,选题具有一定的工程应用价值。 论文根据设计指标,设计出一款具有5自由度的小型水下机器人。确定了水下机器人的结构形式,进行了推力分配计算,确定了推进器的环形矢量布置方式。计算了水下机器人的重心与浮心,并完成了对水下机器人控制系统的设计。对小型水下机器人搭载的螺旋桨进行三维建模。通过数值仿真的方法研究了有轴螺旋桨和无轴螺旋桨敞水性能,结果表明无轴螺旋桨的水动力性能要优于有轴螺旋桨。建立了小型水下机器人运动学与动力学模型,对水下机器人所受的粘性类水动力和惯性类水动力进行仿真计算,得到水下机器人的主要水动力系数。设计了水下机器人定深控制的PID控制器,并进行了定深控制仿真。最后,进行了水下机器人定深控制实验,结果证明了小型水下机器人可以较为精确地完成定深运动。 论文结构基本合理,条理比较清晰,书写符合规范,逻辑性较强。表明作者掌握了本门学科的基础知识,能应用相关知识开展科学研究,论文已经达到了硕士论文水平。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +146,本文以固-液铸轧铜铝复合板为研究对象,模拟不同服役条件下复合界面的变化及生成金属间化合物的情况,对复合板的传热性能进行了测试和分析,研究了复合界面组织,测试并分析了不同服役条件下的铜铝复合板的热扩散率和热导率及相关因素对复合板导热性能的影响,最后采用有限元的方法,进行计算和验证。论文选题具有一定的现实意义,论文写作规范,逻辑性强,表明作者已掌握本学科领域的理论知识,具备了从事科研工作的能力,论文达到了硕士学位论文的要求。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +2464,该论文选题具有较强的社会现实意义和理论研究价值。论文完成的工作量一般。论文结构较合理,思路较清晰,文献综述较好,论证过程较完整,重点较突出,语言表达较好,论文格式和写作符合规范。论文注重理论联系实际,定性和定量分析相结合,相关数据来源较可靠,选用的分析方法适当,计算过程和分析结果可信,有一些独立见解。论文存在的问题及不足之处:1、论文第三章标题中“研究”改为“分析及假设的提出”更清楚明了。2、政策建议部分,应更多地从实证分析的结果展开,逐渐从微观面拓展至宏观面,才能更好地体现研究价值。综上,论文达到专业硕士学位论文的要求和水平。,0,1,1,0,0,0,1,1,1,0,0,0,0,0 +1819,论文以两相混合式步进电机为研究对象,针对其在开环控制中出现低频振荡、失步堵转以及效率低下问题,将智能算法应用于步进电机的位置环与速度环控制器内并采用自适应神经模糊推理系统调节PID参数,以实现其高性能闭环伺服控制。最后搭建了Matlab/Simulink仿真模型对两相混合式步进电机位置与速度闭环控制方案进行研究并做出了实验验证。论文总体思路清晰,结构严谨,但创新性不明显,所完成工作与贡献较少,同时规范性与逻辑性上也存在诸多问题,建议在导师指导下修改后参加答辩。,0,0,0,-1,0,0,-1,0,1,0,0,-1,0,0 +1407,该生论文对装配式PC建筑的参数化自动建模进行了研究,研究内容主要包括基于标准图的三维建模、ANSYS模型生成等内容。所采用的web GL框架和three.js平台基本实现了最初的想法。软件申请了软件知识产权,可供工程设计人员参考使用。 该生论文研究内容介于土木工程深化设计与计算图形技术之间,本文偏重于程序开发。 论文选题符合专业培养目标要求,内容丰富,同意答辩。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +277,该论文主要工作如下:1、针对车间生产能力时常无法满足需求、物料紧缺导致交货拖期等问题,设计一种车间物料与能力集成优化算法。基于MRP 原理探讨算法的原则和目标,在生产能力的分析与调整、物料的计算与预警中建立调整规则。2、选择SSH 框架作为系统的总体架构,采用时序图和类设计的方式,设计系统的作业任务管理、作业调度管理、物料管理以及设备管理模块。3、选用JavaEE 技术和SSH 框架完成了系统开发,实现系统主要模块的功能,并对其功能进行了测试,证明系统的可行性。选题来源于实践,有一定的实际使用价值;归纳总结全面,理论解决工程实际问题具有新颖性。 所采用的研究方法具有一定的实用性,论文写作规范,图表清晰、 结构合理、层次分明、文字通顺,说明该生具有扎实的理论基础和较强科研能力,论文达到专业硕士的水准,同意答辩。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +1016,“热处理对MnCoCrFeNi(Al2O3)x涂层组织和性能的影响”一文研究了不同Al2O3含量对高熵合金涂涂层抗氧化能力的影响,论文选题有具有一定的理论和应用价值,符合材料工程学科硕士研究生论文的选题要求。 作者使用等离子喷涂技术制备了三种不同Al2O3含量的CoCrFeNiMn(Al2O3)x高熵合金涂层,将三种高熵合金涂层在五种不同的温度下进行了热处理,并在700°C下进行了高温氧化实验。随后使用X射线衍射仪、扫描电子显微镜、能谱仪以及显微维氏硬度计研究了不同成分、不同处理温度及高温氧化后的含Al2O3高熵合金涂层的组织和硬度的变化,并比较了其组织和性能的差异,得到了一些研究结果。 作者采用的研究方法、技术路线合理;研究结论可信,研究结果有一定的实用价值。 论文结构合理,论述清晰,语句通顺,文字、图表规范。论文水平达到了硕士学位论文的水平要求。,0,1,0,0,0,0,1,1,1,1,1,1,0,0 +418,论文对剪幅式深沟球轴承轴向力传感器进行了设计研究,论文选题具有鲜明的工程应用需求和背景,具有较好的研究价值。论文根据其应变特点选用箔式片四臂桥分析,根据其应变特点选用箔式片四臂桥作为测量电路。对设计传感器用材料属性进行了标定;对传感器结构进行了有限元分析;对轴向力传感器弹性元件进行了设计。论文所取得成果表明了论文以及基本掌握了本学科的基础理论和专门知识,但论文中的创新点较少,只是进行了部分分析和设计,具有一定的参考价值。论文写作较规范,逻辑性尚好,论文基本达到了硕士学位论文的要求,经过进一步的修改和优化,建议提交论文答辩。,0,1,0,0,1,0,1,0,1,0,0,-1,0,0 +264,该论文针对拐杖助行机器人的机构设计、运动和动力学、控制策略等进行了研究。选题有实际的应用背景,所开展的研究工作有一定的理论分析和实验验证。论文在现有助行机器人的基础上提出了改进方案,提出的助行方案可行,模型分析基本完整,对提出的控制算法进行了必要的实验验证。论文内容完整,写作规范,条理清楚,论文工作基本达到了硕士论文的标准,可以进行硕士论文答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1376,该论文针对钢丝网架苯板在工业生产中自动化程度低等问题,研究设计了一种钢丝网架苯板自动化生产成型设备,提高了生产效率,降低了生产成本,具有一定的理论意义和较高的实用价值。文章中详细的介绍了该设备的机械结构、控制系统和产品的性能测试,研究的思路清晰、结构完整、扣题准确。应用了模块化设计思想,详细的介绍了不同模块的设计过程,理论分析严谨,计算结果准确可靠。论文的工作量及难易程度适中,作者具备较强的理论分析能力,掌握专业基础理论和系统的专门知识。,1,0,0,1,1,1,0,0,1,0,1,1,0,0 +2356,本文以芳基重氮乙酸乙酯与三乙胺三氢氟酸为底物,在光照下或光照与机械化学共同作用下,研究了alfa-氟代芳基乙酸乙酯衍生物的合成。该文文献调研充分,论文书写较规范;实验设计合理,结果正确;基本达到硕士学位论文水平,同意修改后进行论文答辩。文中存在的具体问题如下:作为硕士论文,该文研究内容的工作量偏少;英文摘要部分请重新书写,英文应该符合英文的表达习惯;文中部分地方上下标不区分,单位符号有误,如:“ml”应该为“mL”;合成的目标化合物表征中,仅给出氢谱与氟谱数据,甚至部分化合物仅给出氟谱数据,即使为已知化合物,也应该提供碳谱数据;参考文献格式不统一,期刊名有的全称,有的缩写。,0,0,1,-1,0,0,1,-1,0,0,0,0,0,0 +515,论文研究单目视觉定位技术,是目前机器人研究的热点之一,选题具有实用价值。 论文对基于视觉的定位技术进行了比较全面的调研,对现有技术现状以及存在的问题进行了分析,确定了单目视觉定位需要解决的关键技术问题。然后通过对线性、非线性标定方法的比较分析,选定采用张正友标定方法对摄像机进行了标定;在此基础上,利用SURF算法对AKAZE算法进行了改进,提升了单目定位的性能,具有一定的集成创新性。最后设计实现了基于所提出改进算法的单目视觉定位系统,从定位精度和匹配时间两个性能指标上进行了实验和结果分析,验证了所提出的改进算法的可行性和性能。 论文整体结构合理,逻辑性较强,写作较规范。,0,0,0,0,0,0,1,0,1,0,0,1,0,0 +1274,该课题为“原位自生Al2O3颗粒增强Al-Zn-Cu-Zr基复合材料的组织性能研究”,具有较好的实用价值。在综述部分对国内外研究动向及对本论文研究的内容有较详细的论述。 作者采用原位法制备出Al2O3/Al-Zn-Cu-Zr复合材料,并通过系列分析测试手段观察并分析复合材料的物相、晶粒形貌、增强颗粒相的形貌、尺寸分布及其晶体学性质,探讨了Al2O3颗粒增强相对复合材料微观结构和力学性能的影响,并分析了强化机制。反映了其工作量较饱满,具有较强的科研能力及分析能力,对本专业的理论知识掌握较好,论文叙述条理清晰,格式较规范,结论合理。,0,1,1,1,1,1,1,1,0,0,1,0,0,0 +1753,论文研究了彩色图像下圆柱型锂电池圆周面缺陷检测方法,实现了覆膜破膜缺陷、覆膜褶皱缺陷的检测、覆膜表面喷码的提取,论文研究成果具有较高的实用价值。论文主要研究内容包括: 1.采用基于直方图搜索的图像分割方法,实现了覆膜电池区域的分割,在一定程度上提高了电池区域分割效果。 2.采用基于局部均值和标准差的喷码提取方法,实现了对覆膜表面喷码的提取。 3.采用基于灰度分布曲线的缺陷检测方法,实现了对不同缺陷的检测。 论文撰写条理清晰,层次分明,符合科技论文写作规范。达到了硕士学位论文的要求。,0,0,0,0,0,0,1,0,1,0,1,0,0,0 +160,本文针对等离子焊接机器人的加工工艺进行了轨迹规划算法研究, 选题有一定的工程背景和应用价值。作者阅读了相关的文献资料,对与本课题密切相关的研究成果进行了综述。论文的主要研究内容及成果有:通过Robot Studio 仿真软件,考虑运行路径的整体姿态,选取逆解中的较优值,降低了计算的复杂性;采用改进自适应遗传算法对TSP 旅行商问题的点焊轨迹规划模型进行了计算,利用B 样条曲线对弧焊轨迹进行插补,提高了收敛速度和计算精度;在Robot Studio仿真软件基础上搭建了等离子焊接仿真平台,对两种工艺的轨迹进行了仿真运行。论文包括理论计算、仿真计算及分析,研究数据可信。说明作者掌握了本学科研究方向的基础理论和较系统的专业知识,已具有运用科学理论、方法和技术手段分析、解决工程实际问题的能力。论文写作较规范,条理较清晰,0,1,1,0,1,1,1,1,0,0,0,0,0,0 +2284,"本论文以籼米淀粉-壳聚糖混合体系为研究对象,探究了改变壳聚糖的添加量、分子量以及混合壳聚糖与籼米淀粉的搅拌速率,通过旋转流变仪(MCR)、TPA质构仪、差示扫描量热仪(DSC)、及扫描电子显微镜(SEM)、X-射线衍射仪(XRD)以及傅里叶红外分光谱仪(FT-IR)等仪器对籼米淀粉-壳聚糖混合体系进行了检测,分析了在不同实验条件下,籼米淀粉的加工特性(微观结构、质构特性、回生特性、热稳定性、结晶特性以及短程有序性)的变化,最终得出不同条件下壳聚糖对籼米淀粉加工特性的影响。该研究为淀粉类制品与壳聚糖的混合应用提供理论参考,同时为改善淀粉类制品的加工特性提供新思路。论文的选题新颖,综述了淀粉类制品加工特性影响因素的国内外最新研究成果,能够掌握相关领域的理论知识。论文的数据翔实,结论基本准确,撰写基本规范,总体上达到了硕士学位论文的要求,建议修改完成后答辩。建议修改的部分:1.数字与单位之间应该有空格。2.论文中的语法错误很多,例如:第1页,“质构特性、流变特以及回生特性等加工特性受到人们越来越多的重视。”这句话中的“流变特”应改为“流变特性”。第2页,“YeJP等”,第8页,“LiQQ等”,第16页,“HuY”这种写法不符合中文的表述习惯,建议修改。第13页,“熔化”、“融化”两个词语乱用。第20页,“多糖的分子质量被认为是影响淀粉基食品品质的重要因素。”应改为“多糖的分子质量是影响淀粉基食品品质的重要因素”。第21页,“分别称取适量籼米淀粉和量取适量不同分子量的壳聚糖溶液…”这句话语序混乱,应改为“称取适量籼米淀粉、量取不同分子量的壳聚糖溶液…”。论文中类似的书写错误、语法错误还有很多,建议作者认真修改。3.论文中指出淀粉的成分会对淀粉类制品加工特性产生影响,但是论文中只介绍了淀粉中的直链淀粉、支链淀粉、脂质、蛋白质的影响,水的影响未做介绍,作者需要增加水对淀粉类制品加工特性的研究概述。4.论文中单位的书写格式要统一,统一用r/min或者r·min-1来表示。5.黏性的单位应写清楚。6.第14页,随着储藏时间的增加,籼米凝胶体系的网络结构变粗糙、杂乱、孔径小,作者应当写清楚孔径的变化由…变成了…。此外,图2-3中SEM图片的标尺不清楚,需要修改。同样的问题在第26页,随着壳聚糖的分子量增大,籼米淀粉凝胶体系的微观结构分布较为均匀、光滑和孔径较小,应写清楚孔径的大小,并且图3-3的标尺不清晰。第37页,壳聚糖-籼米淀粉混合凝胶体系的微观形貌结构较为均匀、光滑和孔径较小,应写清楚孔径的尺寸,并且图4-3的标尺不清晰。7.在研究壳聚糖添加量对灿米淀粉加工特性影响时,发现当壳聚糖添加量为0.7%时,灿米淀粉的结晶度最大,对籼米淀粉的长期回生促进效果最强,短程有序性增加,能够促进籼米淀粉的长期回生,为什么在研究壳聚糖分子量对灿米淀粉加工特性影响时选择的是0.5%的浓度?8.为什么随着壳聚糖分子量的增加,灿米淀粉凝胶的Gʹ呈现出先减小后增加的趋势?9.作者在第四章中应解释清楚为什么随着搅拌速率的增加,Gʹ呈现出先减小后增加的趋势。",0,1,0,0,1,0,-1,0,-1,0,1,0,0,0 +3069,作者针对无人车路障检测与识别问题,提出基于双目视觉的路障检测识别与测距算法,并通过实际道路场景进行试验验证。论文选题具有理论和实用价值,国内外现状综述较为清楚,研究内容充实,研究方法和实验方案科学合理。论文撰写认真,层次清晰。个人观点如下:1.仅仅利用双目视觉不能完全解决路障检测问题,实际情况下需用如激光雷达与视觉数据融合的方案更为可行。2.目标检测模型对未标定目标进行准确识别才具有实用价值。,0,1,1,0,0,0,1,0,0,1,-1,0,0,0 +3002,一、综合评价:勉强达到硕士学位论文水平,建议认真修改后方可答辩。二、论文修改意见:论文选题为“肖邦《第三钢琴叙事曲》演奏技巧和韵律美的研究”,该论文观点基本明确,与研究生教育学科类别契合,符合该学位方向领域定位,具有一定的针对性和实践性。但是,论文研究内容过于冗杂,论证过程中重点不够突出、结构不够合理,综合运用基础理论、科学方法、专业知识和技术手段的能力一般,语言表达不够流畅,缺乏专业性的规范表述,说服力不足。基于以上问题,提出如下修改建议,不妥之处,有待商榷:1.论文研究内容过于冗杂,未能根据论文研究重点进行合理布局。例如:对于论文核心概念“韵律美”韵律美的分析与阐述,应根据研究重点和拟解决的钢琴演奏中的具体问题,对材料进行梳理和筛选,而不是材料的一味堆砌。如:“第四章“韵律美分析”中,从韵律的相关概念定义、构成、在表现形式上的呈现、与绘画的比较等方面进行论述,内容涉猎范围之广,是文章有限字数难以阐述清楚的,应根据研究重点合理布局、适当取舍。2.结构不够合理、清晰,标题缺乏精准、凝练、规范的表述。如:第四章“韵律美分析”中,“对比与调和展现韵律美发展与结束的戏剧美”、“重复体现韵律美均衡的秩序美”标题究竟何意?令人费解。这样复杂的美学问题,不足300字的阐述怎能论证清楚。此类问题多处存在,需予以重视。3.文题不符。例如:在第一章中,肖邦生平属于创作背景介绍,并非音乐分析。在第四章中,三级标题“以绘画艺术进行类比”不符合二级标题“韵律的构成”的研究内容,未能围绕“韵律的构成”这一问题展开论证。文题不符。4.谱例不规范。如:P13、16页谱例,没有谱号、调号。5.语言表述不够流畅、缺乏专业性、规范性。如23页”在秩序中短时值的十六分音符又具有着灵动,“点缀上戏剧性”,25页“不断规律的推动着音乐向前推进”……,缺乏应有的逻辑性、专业性表达。此类问题多处存在,需仔细推敲,认真修改。,0,1,0,0,0,0,-1,-1,-1,0,-1,0,0,0 +2270,本论文选取《珠光材料的介绍、应用与市场分析》作为汉译英的翻译实践,相比英汉翻译实践具有一定的难度,选题具有很好的应用价值。案例分析相对清楚,分析较为全面,基本符合论文写作规范。三点建议:1、因为本实践报告只集中一种语言现象,可能会引发片面性的争论,建议在第一章增加对源文本语言特点的概述,不仅仅交代长句的数量,要进一布分析这些长句对译文读者可能产生的影响,这些长句与其它文体长句之间的区别,旨在说明选取“长句”这一种语言现象的原因;2、论文只引用了别人对长句的定义,没有结合本源语文本的特点对长句进行工作定义和分类;3、进一步提高论文写作规范。总之,该论文已经达到硕士论文水平,建议稍加修改后答辩。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +1426,该硕士学位论文针对传统钢铁行业中热浸镀处理沉没辊存在的铝液、锌铝液腐蚀的问题,选择15#低碳钢为基体材料研究对象,采用等离子体喷涂技术,制备了三类不同的涂层,包括氧化铝/NiCoCrAlY、氧化锆/NiCoCrAlY、及NiCr-碳化铬,研究了涂层孔隙率、力学性能和热震性能。取得主要结果包括:氧化铝/NiCoCrAlY和氧化锆/NiCoCrAlY涂层主要由于与基材热膨胀差异,导致热应力作用下腐蚀液易沿裂纹扩展,并导致涂层剥落失效;NiCr-碳化铬涂层则因Ni在腐蚀Zn液中的消耗而导致多孔失效;三类涂层与基体都具有良好的结合力,其中,氧化锆/NiCoCrAlY涂层在镀铝和镀锌铝条件下呈现出较好的耐防护性能,寿命达16天。 论文的选题具有强的工业实用价值,逻辑和编写较清晰规范,数据图表阐述客观,是一篇较规范的硕士学位论文,表明作者具有基本独立科研的专业知识和素质能力。同意修改后答辩。,0,1,0,0,1,1,0,0,1,0,0,0,0,0 +2038,随着制造领域的技术进步,机械设备旋转部件的转速大幅提高,为减小高转速下转子的离心力,以降低其运行磨损,延长使用寿命,对旋转类机械零部件的加工精度提出了更高的要求。 论文中借鉴全息动平衡方法,设计了测量方案以获取转子全轴长的振动信息,采用无试重动平衡方法,设计了程序以逆求解计算转子全轴长的偏心质量分布。并且利用有限元计算的循环迭代程序,进行转子偏心质量的逆求解,对逆求解程序进行了仿真模拟分析。 分析了将节点偏心质量拟合成连续偏心质量的限制条件,对实际工况中转子存在不可加工表面的现象进行分析,对这一现象提出逆求解残余质量,与原始偏心质量求差后,得出所需补偿质量的求解方法,并进行了有限元仿真验证。设计了实验台,对离线动平衡方法进行实验验证。 论文选题新颖、合理,贴近生产实际,研究过程科学、严谨,所获结果真实可信。论文逻辑清晰,层次分明,分析计算正确,语言表达基本准确。达到了硕士研究生应具备的学术水平。,0,1,0,0,0,0,0,1,1,0,1,0,0,0 +2214,《社会工作介入随迁老人社区融入的研究——以苏州市S社区为例》一文运用访谈法和参与观察方法,以S社区的随迁老人为关注对象,对其融入状况进行探讨。选题符合社会学研究范畴,尤其是运用社工介入方法,对提升随迁老人融入度指出相关建议,既体现社会工作的专业价值,也使研究具有一定的实用意义。整体研究思路较清楚,介入过程较合理,体现作者具有一定的观察和写作能力,基本上达到硕士学位论文要求。修改意见:1、社区融入的概念和使用应注意。社区融入是这篇论文的主题,究竟什么是社区融入,后续讨论的多种因素与社区融入之间的关联性如何需进一步思考。2、理论联系实践的解释力和思考深度还需加强。尤其是结论部分太过单薄,可以对研究在学术上或实践上的贡献做深刻的总结和反思。,0,0,0,0,1,1,0,0,-1,1,-1,1,0,0 +438,论文将量子计算引入到肢体动作识别研究中,提出了一种新型n位量子全加器,采用量子图像存储方式,并提出了基于量子黑盒的卷积方式进行特征点提取。最后构建了量子BP神经网络,通过数据集进行训练和识别,最后通过嵌入式系统进行了实现和实验验证。论文选题新颖,做出了一些创新性的研究工作,通过较小的计算开销、并行的计算能力及较小存储空间开销来完成肢体动作的识别,为其最终小型化,工程化做了很好的探索工作。体现了作者具有较强的专业水平和研究能力。论文写作较为规范,通篇分析研究的逻辑性强。,0,0,0,0,1,1,1,0,1,0,0,0,0,0 +1290,该论文的选题具有一定的理论和应用价值,论文的主要工作体现在优化目标中加入了冷却水的蒸发消耗,更全面的实现了水系统的优化,根据外界温湿度条件和冷负荷的大小,使设备总能耗与冷却水的消耗总成本最小。该论文所采用的的蜂群算法的改进算法在许多文献中被提出,如GABC、CABC、MABC、多搜索策略的人工蜂群算法等。该论文没有着重与其他改进算法进行对比。总体来看本文创新不够。 论文的撰写思路尚可,工作量一般,基本能达到硕士要求。,0,0,0,-1,0,0,0,0,1,0,0,-1,0,0 +2035,随着信息技术的飞速发展,各类软件应运而生,并逐渐在人们生产生活中扮演着越来越重要的角色。软件质量评价是保证软件质量的有效手段,同样也是软件开发过程中一个必不可缺的重要环节。 本文针对软件质量的多属性评价问题展开了研究。 首先,论文对描述多属性评价问题的信息表达方法进行了梳理和阐述,选择了一区间数为基准形式的表达方式来表达各类评价信息,避免了软件评价过程中的信息模糊导致的失真。其次,在基于误差传递理论的基础上,集结专家们给出的评价信息矩阵,并引入了K-means聚类算法,采用K-means聚类中心矩阵的赋权方法求解专家的权重值,同时,考虑到属性间的非效用性影响力,应用熵权法和TOPSIS相结合来确定属性的权重大小,使属性权重值准确性更强。最后采用案例分析的方法,验证了所提出的方法。 论文书写规范,结构合理,工作量饱满。表明该同学掌握了本专业的基础知识和专业知识,具有较强的科研能力。 论文达到硕士论文水平,同意参加答辩。,0,0,0,1,1,1,1,0,1,0,0,0,0,0 +449,论文利用价值链成本管理理论对XL 钢铁公司进行了剖析和研究,在对国内外价值链成本管理理论分析和总结的基础上,对价值链成本管理的内涵和分类及特点进行了总结,并对其优势进行了分析,然后利用价值链成本理论对XL 钢铁公司进行了具体的分析,结合XL 钢铁公司,对其经营现状及成本管理中存在的问题进行了总结,指出了存在的问题和不合理之处,进而为引入价值链成本管理提供了机会,然后论文利用价值链成本管理的理论和分析工具,对XL 钢铁公司进行了具体的剖析,从全文来看,选题具有一定的价值和意义及创新性,逻辑性也较为合理,基本达到了硕士的水平和要求,同意其答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2656,论文将实物期权法应用于比亚迪企业商标权价值的评估,选题具有一定的理论意义和现实意义;能够综合运用相关的理论知识,理论联系实际,选择合适的研究方法;运用资料较丰富,工作量较饱满,结构较合理,层次较清楚,能反映一定的运用所学知识分析问题解决问题的能力。总体来说,达到了硕士论文水平,经必要修改后可以答辩。论文不足及需要修的地方:(1)文献综述条理不是很清楚,文献资料也较陈旧。(2)将“定性与定量结合”作为论文的研究方法不合适,它是一种研究方法的分类,不属于论文具体的研究方法。(3)第二章相关理论基础部分,内容不完整,重点不突出,仅仅介绍了商标权价值的部分内容,重点的价值评估的理论方法等没有提及。(4)评估过程中的一些重点内容论述不深入,如运用收益法时的分成率的确定,运用实物期权时对实物期权的界定是作为一般的看涨期权进行的评估、还是作为增长期权等进行的评估等都没有深入的分析。(4)不少地方表达不准确、有些表述错误。如第4页标题“可能的创新点”、第4页倒数第2行“商标权也是一种无实物资产”、第5页第7行“将其分为市场和非市场”、第22页第11行“市场价值又叫做账面价值”,第20页表4-1有几处表达不清及错误,类似的还有不少。,0,1,-1,1,1,0,0,-1,0,0,0,0,0,0 +992,这篇论文以《拉赫玛尼诺夫钢琴作品《悲歌》的演奏特点分析》为题进行论文写作,选题符合专业学位培养要求,论文写作前期的准备工作不够充分,文献综述部分过于简单。行文不够流畅,文字衔接过于生硬,笔者对于整篇论文的写作思路不够清晰。谱例选择的意义在哪里?选择的谱例想说明什么问题,要与文章内容符合。论文第二章、第三章的内容过于简单,字数过少,不是硕士毕业论文的水准。全文看不到笔者自己的音乐感受,通过自己的学习,你的音乐理解在哪里?,0,1,-1,0,0,0,0,-1,-1,0,0,0,0,0 +54,Zr基和Fe基非晶合金具有高强度、高硬度等优异性能,但因缺少室温塑性而限制其广泛应用。论文作者阅读了有关非晶合金的制备、变形机理、断裂行为、强化机制、结构性能大量国内外文献资料及进行了合理评述,较好把握了该领域研究动态。论文选题具有较好的科学意义与工程应用价值。 论文系统研究Zr50Cu40Al10和Fe78Si9B13两种非晶合金进行了高温拉伸变形行为,具有一定创新性;主要研究结果有: (1)Zr50Cu40Al10非晶合金高温拉伸未发现应变强化现象; (2)Zr50Cu40Al10非晶合金高温拉伸过程中发生锯齿流变现象,温度越高,越容易开动剪切带,锯齿应力降越小,数量越多,塑性增加; (3)Zr50Cu40Al10非晶合金空气中氧化严重,析出ZrO2和Al2O3氧化物导致非晶基体中Zr元素减少,强度降低,塑性变形能力增加; (4)Fe78Si9B13非晶合金在一定初始应变速率变形,随着温度的升高,抗拉强度逐渐下降;变形温度一定时随着初始应变速率增加,样品保持的非晶态越强,断裂强度逐渐增加。250 ℃-350 ℃条件下,拉伸断口出现剪切台阶和脉纹状混合形貌。在510 ℃和6.67×10-5 s-1,1.67×10-4 s-1条件下高温拉伸均发生应变强化现象。 (5)变形有利于样品发生晶化,510 ℃时的变形部分与未变形部分晶体体积分数差值约为8.12%,导致初晶晶化型的Fe基非晶合金在该条件下,动态变形打破了晶化过程中优先析出α相时形成的溶质富集,促进α相进一步晶化析出,使应力应变曲线中表现出应变强化现象。 论文实验研究方法合理,图表规范,数据处理合理,结论合理。 论文内容朴实,结构合理,层次分明,书写规范。 论文表明作者具有比较好的本学科专业理论基础知识和专业技能,具有一定独立承担科学研究与技术工作的能力。 该论文已达到硕士研究生毕业论文水平。,0,1,0,0,1,1,1,0,0,1,0,1,0,0 +620,论文针对含储能设备的虚拟电厂的电力系统运行进行了优化建模,先定义了虚拟电厂,然后针对两种系统配配置方案,即光伏+燃气轮机+3种储能系统(钛酸锂电池+全钒液流电池+超级电容)+负荷的虚拟电厂方案,和光伏+2种储能系统(钛酸锂电池+全钒液流电池)+负荷的虚拟电厂方案,分别采用粒子群和遗传算法等优化技术进行仿真。论文的基本思路是正确的,融合了所研究问题的基本理论和基础知识,论文架构基本合理。但论文的写作、模型、仿真均存在一定的问题,鉴于作者有一篇国际会议论文录用,本次评审结果给予及格,建议学位授予单位慎重考虑。,0,0,0,0,0,0,1,1,0,1,-1,0,0,0 +2242,1.英文摘要应该放在中文摘要前面;2.英语表达中有较多语言错误,存在表达不准确,句法不规范,中式英语的表达比较明显,论文的语言需要进一步修改;3.标题“keys”语义不清,未能概括出相应部分的正文内容;4.译文是针对东南亚还是非洲?文中的1.1和2.1.3正文中表述不一致;5.4.1.1与4.1.2标题在逻辑上不属于同类,建议修改;5.标题“combination”与相应部分内容不相符,你的例子似乎都是reframing;6.结论部分未能总结你翻译实践中经验,特别是功能对等理论对翻译实践的实际指导价值与需要注意的问题。7.第41页有排版问题。,0,0,0,0,0,0,0,-1,0,0,0,0,0,0 +2383,本文针对国内工程机械的使用需求,设计了一套高压油缸试验台,评估了耐压试验和负载效率试验的液压系统动静态特性,通过蓄能器优化耐压试验,确定优化参数,最后进行实物试验验证。本论文立足国内需求,调研了国内外液压缸试验台的研究现状,开展了有价值的研究工作,研究结果对国内工程机械的发展具有重要意义。研究思路清晰,研究手段先进,论述有条理,表述清楚,掌握了本专业的基础理论知识,具有从事本专业科研开发的能力。存在的问题如下:英语摘要需要修改。存在语句不通,语法错误,用词不当问题。建议第二张和第三章合并。图不符合规范。比如2-2。公式书写字体不一致,单位书写格式有错误,如MPa和Mpa,min和min。活塞杆的长度是多少?太长的杆要进行稳定性校核。选择电机的转速是多少?排版不整齐,比如第二、三、四章标题段前段后宽度设置,参考文献却页码,排版不齐。参考文献中的很多英文文献就是中文期刊,真正英文文献太少。请补充叙述国内高压油缸试验台与国外的差距在哪里?进行仿真分析的目的不是证明HyPneu软件的有效性,应该证明你的仿真设计模型可靠有效,便于后面利用仿真模型进行参数化研究。,0,0,0,0,1,1,-1,-1,1,1,0,1,0,0 +2833,论文以多智能体环形编队控制问题为研究目标,针对通信资源受限、通信带宽受限和具有不确定有界外部干扰影响问题,设计了不同的触发机制,利用Lyapunov理论分析了系统环形编队的稳定性,并用数值仿真结果验证了策略的可行性。论文的选题和研究成果具有一定的理论意义和实用价值。论文整体表达流畅准确,逻辑性强,图表格式规范,表明作者具有较扎实的理论基础和分析、解决问题的能力,论文达到了硕士学位论文的水平。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1747,论文研究成品油二次配送物流配送模式及配送路径优化,从建模和算法设计进行研究,具有一定的现实意义和理论意义。 论文首先通过调研分析了我国国内成品油二次配送的现状,国营成品油销售端口和民营成品油销售端口的配送现状,归纳总结出我国成品油配送和需求量的现状。然后对具体研究的地区-L地区进行现状分析发现L地区二次配送存在的劣势及配送模式的陈旧等问题。 根据对L地区的要素分析,得出影响参数并建立L地区成品油二次配送路径优化模型,完善配送模型中约束条件。然后对遗传算法进行研究,通过遗传算法得出最优二次配送路径的最优方案,得出最小成本值。对L地区的销售端口进行需求量的预测,预测出下一天或下一个月乃至未来的需求量预测,对配送模式的优化提供了技术支持。 论文工作量饱满,反映出作者掌握了本学科坚实的理论基础和相关的专业知识,从事科研工作能力强。论文作者基本掌握了本领域的发展方向,能够开展课题研究和理论探索,具备独立从事科研工作的能力和坚实的本学科基础和扎实的操作技能。 论文书写规范,条理清晰,学风严谨,文字表达流畅,基本达到硕士研究生的要求。,0,1,1,1,1,1,0,0,0,1,0,0,0,0 +2201,“《车间加工:平面磨削》英译汉实践报告”,以作者翻译《车间加工:平面磨削》为基础,以生态翻译理论为指导,总结反思自己的翻译实践,以实例说明了作者在实践过程中运用相关的理论知识解决翻译问题的过程、方法,证明了生态翻译理论对机械加工文本在语言、交际两个维度上的指导作用,对同类题材的英汉翻译实践有一定的借鉴价值。报告逻辑清晰,结构合理,层次分明。作者翻译工作准备充分,时间安排合理,可读性较强,论文的工作难易程度和工作量达到MTI硕士论文写作的训练要求。论文存在的不足之处体现在:1.表达:语言表达中存在主谓不一致现象,如:P.24:Theauthorhavenotyetreached…本句中的主语为author,助动词怎么可能用have?2.译文:个别译文的表述不准确,还需润色、修改、打磨。3.分析:译文后的分析可以再深入细致一些。4.工具:翻译实践的原文本属于科技文本,在翻译工具选择上,可以选择面更宽一点,如《英汉科技词典》《机械专业工业词典》《机械加工技术大词典》等科技词典。5.细节:1)翻译章节题目WorkshopMachining:AComprehensiveGuidetoManualOperation有点长,作者在摘要中第一次出现时,可以在其后加括号(),在括号里写上hereinafterreferredtoasWorkshopMachining,此后就可以不用全称。2)表格与正文应该有一定的行间距,表格应该有表头。3)第8、17页中存在不该大写的字母,大写了。4)所举例句的原文均加粗,是否能将其对应的译文部分也加粗或下划线,让读者一看就清楚原文与译文的不同所在。,0,1,0,1,0,0,-1,1,1,0,0,0,0,0 +2847,论文以某汽车公司《中级评估手册》中发动机部分内容为翻译对象,通过卡特福德翻译转换理论作为指导理论,对整个翻译过程中关于科技文本相关英译策略、方法、技巧等的运用做了探讨和总结。总体而言,文章能够结合理论对案例进行分析,例证适当,分析也较为深入。文章结构安排较为合理,语言通顺,符合写作规范,达到了硕士学位的要求,可以参加答辩。论文需要在以下方面进行修改:1)每个标题与正文之间应该有适当的过渡句,让读者知道该部分要写什么内容。2)3.2中,2对于翻译理论的回顾过于理论化,可适当添加前人对于该翻译理论用于科技文本的研究。3)案例分析中的原文和译文,应提供附录中的页码,方便查看原文的上下文。4)分析案例时,发生转换的部分可以加黑加粗或者下划线标出。5)reference中第26个文献按照字母顺序排,应该在前面。,0,0,0,0,0,0,1,1,1,0,0,0,1,0 +1169,"本文选用甲醇钠作为催化剂,以碳酸二甲酯和1,6-己二醇为原料,使用酯交换法合成了一系列分子量约为1000左右的聚六亚甲基碳酸酯二醇(PHCD)。重点研究了催化剂用量对己二醇转化率的影响;通过对投料摩尔比、常压反应总时间、减压反应总时间和减压反应温度等工艺参数的分析,以及对产物的羟值、Tc、Tg和Tm的性能测试,发现催化剂的最佳用量为占己二醇摩尔比的0.7%。同时,本文采用分子动力学模拟方法,分析了超临界CO2在PHCD中的溶解扩散行为。分析表明,温度和压力对PHCD的溶度参数的影响较小,对超临界CO2的溶度参数影响较大;温度的降低和压力的升高有利于超临界CO2在PHCD中的溶解,为相关发泡工艺的参数设置提供了参考。 论文撰写规范,逻辑严谨,结论可信,工作量饱满,达到了工学硕士论文的要求。",0,0,0,1,0,0,1,0,1,0,1,0,0,0 +254,该论文选题有一定的现实意义,专利代理制度一直我国的一个热点话题之一,但论文写作一般,创新点不突出,特别是问题意识不太强烈,可以看出学生的学科知识掌握不够好,写作规范性不强,文中没有太多参考文献,引注也不太规范,文后的参考文献在文中并未体现,论证的逻辑性不够缜密,特别是前面几章像是在写教科书,总体是看需要做重大修改。,0,1,-1,0,-1,0,-1,0,-1,0,0,-1,0,0 +2795,"论文研究连续体结构拓扑优化,建立了基于射极算法的连续体结构拓扑优化模型,可自动确认最优步长因子,减少优化迭代次数,可快速获得同时满足应力、位移等约束要求的优化解。论文选题具有一定的前沿性和实践意义,研究工作量饱满,对国内外研究现状的了解程度及综合分析能力较好,研究成果具有一定的创新性,论文写作语言表达流畅、层次结构合理,图表数据规范,学风严谨。达到硕士学位论文水平。修改意见:1.P1,本论文针对现有连续体拓扑优化方法以柔度作为目标函数,优化迭代次数较多和用时较长的问题。提出了一种可自动确认最优步长因子,减少优化迭代次数...不连贯,提出前句号修改。2.p9,论文研究内容的两个方面,需准确且逻辑清楚地表述。图1-4也反映不出章节之间的关系。3.p36,图4-1建议修改。规范表达。4.p50文中k等符号,使用斜体,请统一。",0,1,1,1,0,0,-1,1,1,0,0,1,0,0 +1387,该论文针对我国对对硝基苯酚(PNP)废水的治理效果不佳的现状,提出了生物膜反应器(MABR)与甲烷基质膜生物反应器(CH4-MBfR)相结合的处理工艺,研究了MABR与CH4-MBfR在长期运行过程中对PNP的处理性能,考察了运行参数对MABR及CH4-MBfR运行效能的影响,对MABR降解PNP的动力学进行了拟合分析,探究了MABR对PNP较高负荷冲击的耐受力,同时也对MABR生物膜群落组成及生物多样性进行了研究。该论文的选题具有重要的研究价值和工程意义,研究结果可为硝基酚类化合物废水的生化处理提供新的思路。该论文研究思路清晰,数据翔实,重点突出,达到硕士学位论文要求。,0,1,0,1,0,0,0,0,1,0,0,1,0,0 +2581,近年来,随着互联网的普及,我国互联网电商行业也呈现出迅速发展的状态,互联网电商企业并购上市的案例也越来越多。如何合理确定互联网电商企业的价值,成为企业管理者与投资者十分关心的问题。在这样的时代背景之下,本文的选题具有现实意义。论文结合互联网电商企业的特点,以传统DEVA模型为基础,构建修正的模型,以拼多多为例进行评估,并与传统方法的评估结果进行比较,体现其方法的合理性。作者对国内外相关文献材料进行了梳理,整体把握了相关领域研究现状,论文逻辑清晰,写作较规范,是一篇合格的硕士研究生学术论文。与作者商榷的地方:第一,文献回顾的第一点的标题,建议调整为“互联网企业常用估值方法的研究综述”;第二,建议第二章增加一个二级标题,分析影响互联网电商企业价值的因素分析。文献评述最后一自然段作者提到了“在对互联网电商企业进行价值评估时,要将影响其企业价值的重要因素结合起来,量化应用到模型里”,这应该是比较重要的内容,支撑了模型的应用,论文在18页模型构建的概述段里有提到“行业地位、用户规模等”,建议细化在第二章。,0,0,-1,0,0,0,1,0,1,0,0,0,0,0 +2954,同意修改后答辩主要问题如下:1.论文论证不够充实,例子的翻译分析也比较单薄,导致篇幅过短。2.P14例3英文原文和汉语译文都有问题;P13例2括号里的翻译不够地道;freetranslation下的前两个例子也看不出用的这种翻译方法。3.本论文属于翻译实践报告,majorfindings与limitations应属于翻译实验报告,写在本文不太合适。4.有部分语言错误,如P174.1.4下的第一段的第一句内的hypotactic,词性错误。,0,0,0,-1,0,0,-1,-1,0,0,0,0,0,0 +2979,文章针对固体电解质离子电导率不足以及与电极接触不稳定的问题,开展相关理论和实验研究,课题选题合理;文章阐述了固体电解质和第一原理方法的国内外研究现状,表明作者对本研究领域知识有一定了解;作者基于理论分析、数值计算和实验相结合的方法,对固体电解质掺杂、制备、性能分析等方面进行了研究,表明作者已基本掌握相关专业知识,具有独立进行科研工作;论文达到硕士学位论文水平要求,同意答辩。2.不过论文仍存在的一些问题:(1)论文排版不规范,建议规范;(2)论文结论部分不够完善,建议补充完整。,0,1,1,0,1,1,-1,0,0,0,-1,0,0,0 +2256,本课题将SPR生物传感器与纳米技术相结合,采用微分相位光谱干涉测量法设计了一种基于白光光谱干涉的微分相位SPR系统。选题具有一定的理论意义和实用价值;论文反映该生对本学科及相关学科领域国内外学术动态有一定的了解;论文提出的技术方法具有一定创新性,对新冠病毒的检测具有现实意义;体现学生理论知识扎实,具有分析问题、解决问题的能力,研究方法具有科学性;论文语言表达准确,逻辑性强,书写格式比较规范,存在如下问题:1、第一章国内外现状中,仅提到一种用于新冠病毒检测的SPR生物传感器,新冠病毒也在全球流行了两年多了,还有没有其他团队或者科研成果在新冠检测中使用SPR生物传感?其效果如何?你所做的研究具体要解决哪些问题?请归纳补充;2、论文格式需进一步规范,如左缩进、表格、参考文献等(P29、P36、P31等);3、标题是论文的创新点,但是更像是研究内容总结,请修改标题或者提炼创新点。该论文达到硕士学位论文水平,同意参加毕业答辩。,0,1,0,0,1,1,-1,1,1,1,0,1,0,0 +43,Fe基非晶合金以耐腐蚀性和热稳定而应用于在涂层领域,但热喷涂制备的涂层由于存在孔隙而影响耐蚀性。论文作者查阅及评述了有关Fe基非晶合金、超音速火焰喷涂、计算流体力学等国内外文献,较好把握了该领域研究动态。论文选题具有较好的科学意义与工程应用价值。 论文采用计算机数值模拟和 设计验证实的分析方法,分别进行了使用 JP-8000 和 AK-06 型超音速火焰喷涂系统(HVOF)制备 Fe 基非晶涂层的研究,通过建立超音速火焰喷涂计算机网格,用商用计算软件 Fluent计算平台, 选用 Realizable k-ε 湍流模型,涡耗散和离相湍流模型,涡耗散和离相湍流模型作为控制方法,模拟与优化喷涂参数,并设计验证实验验证最佳喷涂参数并初步研究孔隙与耐蚀性的关系。 论文取得了一些研究结果: (1)HVOF仿真结果表明,喷涂距离为360-380mm时,SAM2X5 Fe基非晶粉末颗粒在撞击基板时处于半融化状态,颗粒在基板上具有良好的流动性,能获得孔隙率较低的涂层。 (2)HVOF验证表明,不同喷涂距离制备的涂层为完全非晶结构;喷涂距离为370mm时,涂层截面孔隙较少,孔隙率最低,为0.57%。 (3)针对HVAF喷涂工艺,建立AK-06型喷枪计算模型,模拟优化出AK-06型喷枪制备组内自制Fe基非晶涂层的最佳粉末颗粒直径为30-40μm,最佳枪管类型为4E,最佳喷涂距离范围为200-210mm。 (4)HVAF验证表明,涂层基本为非晶结构;选用最佳优化参数制备的Fe基非晶涂层截面最致密度,涂层与基底的结合状态最好,表面比较平整,无未熔颗粒沉积和凝固的飞溅液滴,并且具有最低的孔隙率0.31%;经过1000小时盐雾试验后仍具有良好的表面状态,表明涂层孔隙率越低,涂层的耐蚀性越好。 论文内容朴实,研究方法合理,图表及数据处理规范,结论合理。 论文结构合理,层次分明,书写规范,文字表达清楚。 论文表明作者具有比较好的本学科专业理论基础知识和专业技能,具有一定独立承担科学研究与技术工作的能力。 该论文已达到硕士研究生毕业论文水平。,0,1,0,0,1,1,1,1,0,1,1,0,0,0 +1543,论文“基于BN分解的风电功率超短期混合预测研究”基于风电场的历史数据,对比研究了风电场功率的超短期混合预测方法,论文选题具有重要的理论意义和实用价值。 论文分析了风电功率波动的特点和影响因素,选取了归一化均方根误差、归一化平均绝对误差和最大绝对误差作为文中预测结果的评价指标;采用了BN分解对风电功率历史数据进行预处理;对比分析了采用单一预测方法和采用混合预测方法的预测结果,验证了本文所采用的混合预测算法的准确性。 论文结构合理,书写格式规范,论文工作表明作者掌握了本专业的基础理论,具有一定的解决实际问题的工作能力。论文成果有一定的实际应用价值,基本达到硕士学位要求,建议修改后组织答辩。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1803,论文以二维有序多孔材料和某 150kW 直流充电桩的功率模块为例,利用有限元软件,进行热流场分析。论文以多种多孔形状的二维有序多孔材料模型为仿真对象,根据流体力学及传热学相关理论对二维有序多孔材料模型进行仿真计算,根据计算结果分析影响二维有序多孔材料散热性能的影响因素,选择出最佳的二维有序多孔材料孔结构。设计了三组相近孔隙率,不同孔形状的二维有序多孔材料散热器,利用 3D 打印技术,将绘制的散热器模型制备出实体模型,并进行实验测试,对比三种散热器的散热性能,之后设计验证性仿真,证明了实验的可靠性据功率模块内部散热器的尺寸,将最佳的二维有序多孔材料孔结构使用到二维有序多孔材料散热器的设计中,共设计三种不同孔隙率的二维有序多孔材料散热器。论文工作既有一定的理论意义,又有较大的实用价值,在结构分析上有自己的特点。 论文选题正确,属学科前沿。作者能全面掌握国内外研究现状,研究方法先进正确。工作表明作者有扎实的理论基础和较强的独立科研工作能力。 论文写作符合科技规范,发表论文成果较好,达到了硕士毕业论文水平。,0,1,1,0,1,1,1,0,0,1,0,0,0,0 +2763,"论文选题具有重要的实践参考价值,研究思路较为合理,研究方法适当,研究内容较为充实,但语言表述比较啰嗦、不精炼,长句太多(标点符号使用不当),口语化较为严重。论文还存在的一些值得完善的方面:1.要完善国内外研究现状,非文献的简单叠加、随意叠放,要注意逻辑关系,述评结合,且文献(包括最后的参考文献部分)格式需规范、统一。2.创新点应再凝练、融合。3.建议增加技术线路图。4.建议精减表格,精炼表述。如表3-2,3-3,3-4,可以不列入正文。不需要过多解释缺失值处理、异常值处理,直接展现数据的处理结果。原始数据和初步处理数据不用放入正文,可放于附录,如图3-1。建议图中不用颜色区分,如图3-2。5.结论部分需完善,重新提炼结论,减少错误描述。综合来看,该论文达到硕士学位论文水平。",0,1,-1,1,0,0,0,-1,0,1,-1,-1,0,0 +836,作者提交的硕士学位论文以齿轮传动机构作为研究对象,研究了齿轮传动系统中齿轮裂纹振动信号识别与故障诊断,论文选题结合齿轮传动的实际,研究工作具有一定的工程应用价值。该论文的主要工作和创新点如下:(1)运用能量法和有限元法,作者分别模拟计算出无裂纹和有裂纹轮齿的啮合刚度曲线,在对具有不同深度裂纹的齿轮进行分析中发现裂纹对单齿啮合到双齿啮合区域前半段的啮合刚度影响较大,数值计算结果与齿轮行业标准计算结果误差在10%以内,验证了当前的建模方法的有效性;(2)运用有限元法和能量法且随着裂纹的加深,啮合刚度逐渐降低直至失去承载能力。(2)考虑到齿轮传动中的时变啮合刚度、齿侧间隙、传递误差和啮合阻尼等非线性和不确定性因素,作者运用Runge-Kutta法求解了含有不同深度裂纹直齿齿轮副的振动响应,数值计算结果表明轮齿裂纹将影响振动系统的稳定性,齿轮系统由周期振动响应向非周期转变的趋势,台架的实测结果验证了这一结果。综上所述,论文的研究工作表明作者已掌握本学科较扎实的基础理论和较系统的专业知识,论文中,数值建模和计算结果可靠,试验结果可信,达到了硕学位论文的要求。论文修改后可以答辩。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +1733,论文选题有一定的理论意义和实际应用价值。论文在综述国内外同类研究和论述索要解决问题的最终目的、意义基础上,采用衔接模块化理论、技术转移理论,建立了组织模块化对研究型大学的技术转移绩效影响的模型。开展了研究型大学样本调查、针对问卷数据进行实证研究。论文表明,作者具有较好的分析问题与解决问题的能力。论文基本达到硕士论文的水平。同意修改后答辩。,0,1,1,0,0,1,0,0,0,0,0,0,0,0 +657,论文作者采用电沉积方法制备了铜锌铋三金属电极,对其制备影响因素进行了考察。结合钌铱电极,考察了所制备电极电催化还原硝酸盐废水的效果,对电催化过程影响因素进行了实验分析。同时,对该电催化动力学和催化机理进行了探讨。研究结果具有一定的科学意义和实用价值。论文撰写规范,语言流畅,研究成果较为显著,对科学问题分析和讨论较为深刻,在创新性和学术水平方面均已达到了硕士研究生论文的要求,是一篇良好的硕士学位论文。同意进行论文答辩。,0,0,0,0,0,0,1,1,0,0,0,1,0,0 +2304,"本文基于机器学习的某些方法,开展甲状腺乳头状癌临床数据分析与诊断模型研究。研究问题来源于实践,具有应用性,从撰写和内容来看,作者能够运用所学知识和方法分析解决实际问题,研究资料较为详实、工作较为深入、工作量比较饱满,具有一定的应用价值。总体而言,逻辑结构较为清晰,层次较为分明,达到了硕士学位论文水平,但还存在一些值得完善之处,具体如下:1.创新点凝练不够准确:比如,“3.模型的评价指标方面”说“本文引入了近些年新应用的IDI指标,在国内将该指标纳入分析的研究还比较少。”虽然比较少,但还是有,所以就不能算是创新,因为创新是别人没有而你有的东西。此外,“1.指标层面”、“2.模型验证层面”也很啰嗦,使得创新点不突出,建议创新点这部分再精炼一些。2.“2.1指标筛选”没有介绍实质性内容,建议去掉。3.本文转置符号“T”用正体而不是斜体,如式(2-1)中;p12“L1范数与L2范数”中的“1、2”宜采用下标形式,文中其他地方这个问题统一修改。4.P10,式(2-5)中g_w(X)=0.5怎么处理?5.参考文献撰写规范需进一步加强,如(1)所有文献两端对齐,(2)所有文章是否写页码不统一,(3)英文文献[51,52]等文献题目实词首字母是否大写不统一。",0,1,0,1,0,0,-1,0,1,0,0,0,0,0 +313,该文在综合众多铁耗模型的优点,在充分考虑了电机磁化方式、谐波损耗、磁密 大小和频率大小因素对电机的影响下,采用了分段式变系数正交分解法铁耗模型进行铁耗计算。用环形试样法进行了 SMC 材料损耗的测量,并用专业拟合软件进行了铁耗系数的拟合。分析电机内部磁密和计算各区域铁耗。对永磁同步电机铁耗实验采用反拖法和假转子法,结果显示分段式变系数正交分解法计算的铁耗更接近实际测量的铁耗。分析了电机定子为 16 槽、24 槽、36 槽时,电机铁耗的变化和内部磁密的变化。转子上开槽对铁耗的影响,槽深度和槽口宽度的变化对铁耗的变化。仿真分析了不同负载和不同供电方式对铁耗的影响。结果表明负载越大,电机铁耗越大。SVPWM 控制时,开关周期越小,得到的电流波形越正弦,铁耗越小。重新设计了一台额定功率为 1kW 的的永磁同步电动机,其定、转子为 SMC 材料。铁耗有了一定的减少。 该文立论基本正确,论述有据。文章逻辑比较清晰。章节安排较为合理,图表符合工程要求。基本达到了工学硕士的水平,修改后可以考虑进行答辩。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +1804,论文以二自由度平面刚性双臂机器人为研究对象,对双臂机器人的基本构成、运动学进行了分析,并且建立了动力学数学模型。同时,分别研究了反推滑模控制、智能反推滑模控制方法,并且进行了系统仿真。 该论文研究方法合理,选题具有较强的针对性和应用价值。论文工作量较饱满,叙述层次较分明,行文基本符合学术规范,但文中关于所要研究的对象不够明确,缺少具体实验验证,建议修改后答辩。 质询问题: 论文所提算法缺少实验验证。 采用反推滑模控制,机器人双臂的载荷最大值为多少?,0,0,0,1,0,0,1,0,1,0,0,0,0,0 +1844,论文以中俄农产品贸易为研究对象,梳理了两地区农产品贸易的已有研究成果,分析了中俄农产品贸易现状,进而测算了中国对俄农产品出口的质量,并通过构建计量模型对农产品总出口质量和分类出口质量进行了影响因素实证研究,进而提出了农产品出口质量提升的政策建议。总体来说,本文研究对象和研究方法较为常规,研究结构相对完整,内容相对丰富,具有一定的研究创新和实践应用价值,对于提升我国对俄农产品出口质量水平,促进我国对俄农产品出口的健康发展具有一定意义。,0,0,0,1,0,0,0,0,1,0,0,1,0,0 +2502,该论文针对汽油车排气系统结构所存在的振动特性问题,通过数值建模、仿真分析对排气系统隔振性能进行优化设计,可为汽车排气系统研发设计初期提供一定参考。论文选题来源于工程实际,专业基础知识掌握较好,写作较为规范,论文逻辑性较为合理,修改建议如下:1.第三章图3-6种Z方向建议加上坐标,不致引起混淆;2.第四章4.2.3节中只有拾振点,建议标明锤击点,此外仿真约束条件是否与试验约束条件等效,是值得商榷的;3.4.4.3中的悬挂胶是什么,建议在文中进行说明和表示。,0,0,0,0,1,0,1,0,1,0,0,0,0,0 +2982,文中针对动臂拼搭关键尺寸超差问题,运用尺寸工程方法和响应面法进行实验结合仿真研究。研究方法较为科学,研究结果可为提高动臂的制造质量提供理论指导,具有一定的工程意义。文献调研较充分,论文结构严谨,层次分明,图表使用恰当,写作规范,逻辑性强,重点突出。写作部分个别细节需要进一步改进。论文表明作者具有一定的独立科研的能力,掌握了所研究领域的基本理论和分析方法,论文达到了硕士学位论文水平,同意其参加论文答辩,并建议授予硕士学位。学位论文存在问题、不足以及修改建议:1)p9~10,图1-1和图1-2中,应加“年”字。如“2016-2021年”2)p11,“在国内,尺寸工程技术…,…实现工业化的目的”,该段中的若干“,”号,应改为中文输入法。此外,p13倒数第二段,p14中间段等,都有此类问题,需全文检查。3)表2-1、4-6中尺寸单位的字体;表3-3中序号的字体;表3-6、3-7、3-8、3-9中的数字和符号字体;表5-7、5-8表头中数字的字体均应改为“TimesNewRoman”。此外,表4-5中数字的字号需修改。此类问题全文检查。4)文中,数字与单位间应有一空格,即应全文统一。如“2mm工程”改为“2mm工程”,还有p26、p44等,存在此类问题。5)公式(2-1)-(2-6)中,下表i应为斜体。全文检查。6)p80,X1=0.2、X2=0.3、X3=0.5,下标应为正体。7)英文文献偏少,仅占约1/4。8)相同词在一句话中重复出现,需适当精炼。如p10,“提升…,…提升困难的挑战”中的“提升”,等。绪论中,介绍前人工作时,关于年份后的标点符号,需统一。如p13,“1978年挪威学者…”、“1988年,以色列学者…”建议统一用后者。全文检查。,0,0,0,0,1,1,-1,0,1,0,0,1,0,0 +967,论文整体内容完整,思路清晰,能够针对目前高中英语读写课教学模式开展研究,研究方向明确,具有鲜明的实践背景和一定的应用价值。实验设计合理,逻辑性较强,能运用基础理论和专门知识,解决所研究的问题。相信本研究的研究能够为高中英语教师提供新的思路,可以在未来教学中推广从阅读学习中锻炼学生的写作能力。文献资料的掌握较为全面,引用材料、观点来源清楚。量化和质性研究相结合,实验设计合理,数据分析得当,符合硕士论文写作要求。,0,1,0,0,1,0,0,0,1,1,0,1,0,0 +738,文章采用规范性研究和实证研究相结合的方法,研究企业成长能力对并购绩效的影响。在规范性研究部分,作者对成长能力、分析师跟踪、机构投资者持股以及并购绩效的文献进行了认真梳理,基于企业成长理论、竞争力理论、信息不对称理论、委托代理理论和并购协同效应理论进行了论证。在实证研究部分,作者以2015 年完成并购并且发布公告的527 家A 股上市公司为样本,以2014—2017 年的相关财务数据为指标,利用EXCEL和SPSS 软件进行数据处理,建立了中介效应和调节效应的回归模型,检验所提出的假设,并得出研究结论。 文章选题具有一定的理论和现实意义,结构安排合理,实证规范,方法正确。 文章从企业成长能力的角度来探究并购绩效有一定的研究贡献。,0,1,0,0,0,0,1,0,0,1,0,1,0,0 +3044,总体而言,论文达到了社会工作专业硕士学位论文论文的要求,结构相对合理,文字表述比较流畅,工作量适中。但存在以下问题:题目表述不太恰当,建议仔细斟酌后加以修改;文献综述中刻意回避了2020年度华中师范大学的硕士论文《社会策划模式介入暑期托管项目》这一直接相关文献,建议认真分析本文与该文献的异同;文中提及两个理论基础:增能理论和策划模式,但增能理论在实务中的体现和描述并不充分;思考与反思部分还应分析:在社区开展暑期托管班应建构何种机制,而不是仅仅停留在具体内容上。,-1,0,0,1,0,0,0,1,1,0,0,0,0,0 +1135,本文对电机噪声振动进行了研究,选题具有较强的实际意义。首先对应力作用下电工钢片的磁致伸缩特性进行测量分析,在此基础上,推导了基于双曲正切函数和亥姆霍兹自由能的磁致伸缩模型,基于实验数据完成了两个模型的参数辨识。最后,利用COMSOL分析了电磁力单独作用、磁致伸缩力单独作用、电磁力和磁致伸缩力共同作用下的永磁电机铁心的振动位移情况,为准确预估电机振动噪声奠定基础。 该生进行了深入调研,充分了解了国内外应力下磁致伸缩测量方法、应力下磁致伸缩模型,综合了前沿成果,选题具有时代性和现实性,具有较强的理论意义与实践价值。论文的观点正确,运用的理论知识、研究方法符合实际情况,设计合理,内容翔实,逻辑鲜明,层次清晰,结论可靠,行文流畅,文字图表规范,反映了作者具有一定的独立科研能力。,0,1,0,0,0,1,1,1,1,1,1,0,0,0 +2140,针对高铝粉煤灰的资源利用,采用硫酸氢铵湿法浸出粉煤灰提取氧化铝技术,对硫酸铝铵溶液中和过程进行了研究,并对生长基元进行了第一性原理计算。论文选题具有重要的应用价值和实践意义。 论文理论与实验结合,主攻方向明确,文献综述较全面,研究立论基本正确,方案合理。论文文笔较流畅,结构合理,显示作者具有一定的专业知识和较强的科研工作能力。同意作者以该论文进行论文答辩。,0,1,1,0,1,1,0,1,1,1,0,0,0,0 +2133,在通信系统中,光纤所产生的损耗、色散及非线性效应是限制光传输 系统性能的主要原因。在波分复用(WDM)系统中,研究抑制 FWM效应对于提高光传输系统的性能具有重要的实践意义。论文主要工作如下: 1、通过调整信道间隔来抑制四部混频效应。分别研究了信道间隔两头大中间小和两头小中间大的方案,并与传统方案进行比较。 2、通过控制传输链路中剩余色散量抑制四波混频效应。当采用非完全色散补偿方案时,每个传输的中继段中色散值不为零,使相位失配因子不为零。同时,在传输链路末端加入单模光纤,补偿传输光纤的负色散,有效提高系统性能。 论文条理清晰,层次分明,达到硕士学位论文标准。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +259,该论文以智能变电站一体化五防系统为研究对象,并针对当前的五防系统存在的局限性及适应智能变电站快速发展对五防系统的新要求,设计了一种新型的一体化五防系统。论文分析了变电站一体化五防系统的结构与技术要求,分析了对应结构的网络总体架构及站控层五防系统设计,以及间隔层及过程层的五防系统设计。论文总体上通过功能流程剖析一体化五防系统的相关功能,对五防系统的站控层、间隔层和过程层的五防闭锁进行设计研究。 论文立题意义明确,研究选题符合实际需求且具有一定的应用创新性,研究成果具有一定的创新性及实际应用意义。论文撰写思路比较清晰、逻辑严谨、观点明确、实验设计合理。表明作者已经掌握电气工程学科的基础理论和专业知识,具有从事本学科的科学研究能力,研究论文达到工程硕士毕业水平,同意进入硕士学位答辩环节。,0,1,0,0,1,1,0,1,1,1,1,1,0,0 +1972,论文作者根据MPI 的空间编码场与信号编码场,设计了一种基于圆环磁体阵列的MPI 线型零磁场系统。该开放式系统可生成精细线型零磁场从而提高MPI的空间分辨率。该课题选题具有科学意义,通过合理地选择磁场结构和扫描方式,分析了粒子集合在驱动磁场下面的电磁特性,有效地提高了成像性能,扩展了圆环磁体阵列的线型零磁场的应用范围,具有可观的潜在应用价值。该论文实验设计合理,方法得当。论文撰写思路清晰,实验方案合理,分析、测试手段先进,数据翔实可靠,研究结论正确;文字表述清晰,图表绘制精美,写作符合规范。论文达到了硕士学位论文的水平,建议参加硕士学位论文答辩。,0,1,0,0,0,0,0,1,0,1,1,0,0,1 +1356,该论文以多能源微网为背景,以我国某海岛为参考对象,加入了海水淡化技术,建立了基于海岛的多能源微网模型,运用改进型遗传算法进行求解,并对求解所得数据进行了分析,结果表明多能源微网用于海岛的可行性与经济性。该论文选题基本正确,对于研究区域多能源微网的发展具有较大意义。本文研究过程与步骤基本合理,具有一定的实用价值。论文反映作者已能够运用相关理论针对综合能源系统中存在的问题进行研究,并能运用专业知识解决基本工程实际问题,基本达到硕士研究生的培养目标和学位论文的要求。但文内公式、参考文献等格式不太规范,错别字较多。元件与目标函数的模型过于简单,且阐述不清,章节所阐述的内容有重合,所运用的原理创新性不高,算例结果存疑,后续需要进行修改。,0,1,0,0,0,0,-1,-1,0,0,-1,-1,0,0 +1262,独立董事制度的研究对保障公司依法运作意义重大 ,其中独立董事勤勉义务更是关系到了广大投资者的切身利益,所以以此作为选题进行研究很有实用价值。该论文对独立董事制度的进本理论问题进行了介绍,也指出了我国现行董事制度的不足。全文结构完整,语言表达比较流畅、清晰,格式上基本规范。但是该论文在材料的收集和运用、研究深度上都存在问题。,0,1,0,0,0,0,1,1,1,0,0,0,-1,0 +2811,论文以“习近平关于底线思维重要论述的哲学基础”为题,论文阐述了认识底线思维的内涵与特征;分析了如何从辩证唯物主义和历史唯物主义视角认识底线思维问题。论文存在以下问题1.论文作者研究方向为马克思主义中国化,但论文的选题更倾向于马克思主义基本理论,偏离了研究方向。2.论文的目录显示论文共四个部分,但论文摘要部分只列出了三个部分,没有列出第一章绪论部分的主要内容。3.论文第二章的“二、底线思维的主要特征”的下一级标题过于泛化,应有针对性,突出底线思维的具体特征。4.论文第三章的下一级标题过于简单笼统,学术性不强,而且没有从价值论高度论述思维体现出的哲学观;5.第四章的内容过于单薄,不能涵盖历史唯物主义的精髓。6.论文马克思主义中国化研究方向的学理性薄弱,应该还有一章内容关于“习近平总书记关于底线思维的重要论述时代价值”方面的内容,具体应包括理论价值和实践价值,将习近平总书记关于底线思维的重要论述与当前中国特色社会主义现代化建设实际相结合。7.文中的关于《马克思恩格斯选集》的注释和参考文献尽量采用2012年版。8.第8页注释4和第34页参考文献(12)“邓小平文选第3卷”应为1993年版。9.第9页注释1为十九大报告,可引用《习近平谈治国理政》第三卷,其中的第一篇文献就是十九大报告。10.目录和正文中的最后一部分应为“结语”而不是“结论”。11.参考文献中的(2)“图书”,应为“著作”,最好放在(1)的位置,先列出著作,再列出期刊。12.参考文献中的“(1)”应为“期刊”,而不是“期刊中文献”,而且列出的期刊不要有页号。该论文在选题、结构、写作思路、逻辑、格式等方面存在许多问题,鉴于疫情期间学生要抗疫等,写作论文不容易。鉴此,勉强给予论文成绩75分,但作者必须对论文作重大修改后方可参加答辩。,0,0,0,0,0,0,-1,-1,-1,0,-1,0,0,0 +2144,针对基于属性的远程证明存在的问题,论文在可信计算环境下结合属性远程证明思想提出了一种在标准模型下基于属性的远程证明方案,利用群签名技术设计了一种新型的远程证明方案并给出了方案的形式化定义;利用SDA假设和HSDH假设以及双线性配对等密码学工具,基于群签名思想给出了方案的具体构建方法。实验验证了方案的有效性。论文思路清晰,层次合理,体现出该生具备了一定的研究创新能力,达到了硕士论文水平。,0,0,0,0,0,1,0,0,1,0,0,0,0,0 +2169,综合能源系统将电、热、气集中于一体,通过多能源互补能够有效降低碳排放量,是实现“双碳”目标的必由之路。但综合能源系统中电、热、气能源转换设备种类较多,能源供给方式复杂多变和可再生能源供能不确定性等问题,为综合能源系统低碳经济带来挑战。因此,该生选择“综合能源系统多时间尺度低碳经济调度研究”作为其硕士论文研究课题,具有一定的理论意义和应用价值。 论文基于综合能源系统中元件特性建立了综合能源系统各单元功率模型及供能单元的碳排放模型。考虑减排目标和系统运行安全因素,基于碳排放指标模型和碳排放极限模型建立了综合能源系统日前低碳调度模型,并进行了不同场景下综合能源系统的经济性和碳排放量的仿真分析。针对日前调度策略下由于新能源出力波动导致碳减排效果减弱的问题,建立了综合能源系统减排目标下的日内滚动和实时低碳优化模型。在此基础上,通过碳排放实时反馈模型获得此出力计划下的碳排放量;最后通过算例仿真对所提出的多时间尺度下的低碳调度模型进行验证。 论文选题恰当,结构合理,书写规范,工作量符合要求,表明作者在本门学科掌握了扎实的专业基础理论知识,同时具备了一定的科学研究能力。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +1724,论文选题来源于电子商务领域消费者选择权法律保护的迫切需求,论文对选题所涉及相关问题的分析较为深入,所提建议具有较强的应用和推广价值。论文对所选课题涉及的民法(含合同法、侵权责任法等)、消费者权益保护法、电子商务法及民事诉讼法等相关行业领域最新发展动态有所了解,对课题所涉及的国内外研究动态的掌握较为充分,对其评述较为客观。 论文写作较为规范,主题观点较为明确,结构布局较为合理,逻辑推理较为严谨;引文、书写格式等符合研究生毕业论文写作规范要求,语言表达通顺流畅。论文所引用的数据、材料等较为客观,相对可靠;论文体现的专业基础较为扎实,研究内容有一定的广度和深度,研究方案贴近实际,有一定的合理性;表明作者已基本掌握相关领域法学专业知识,并具备运用所学知识分析、解决社会现实问题的独立思维能力。 综上所述,本人同意推荐该生参加答辩。,0,1,1,0,1,1,1,1,1,1,0,0,1,1 +1198,本文以双层护套高速永磁转子系统为研究对象,对转子系统机械应力、转子动力学特性进行了分析和研究。该论文选题具有较好的研究价值。 作者对该领域的文献检索和调研内容丰富,较好地阐明了高速电机机械应力及动力学的研究和发展过程,对科研动态归纳正确,对自身涉及的课题目标明确。 作者在考虑过盈量与工况温度的情况下,推导出受温度影响的高速永磁转子强度解析公式,并且用有限元方法验证分析,计算分析不同转速、频率下的临界转速、模态振型、固有频率等模态参数,并对转子系统进行谐响应分析。对高速电机转子的设计具有一定的理论指导意义。 论文层次结构设计合理,结论总结较为严谨,全文行文较为流畅,表达准确。 该论文作者基础理论较为扎实,专业知识水平较高,具有一定的科研工作能力。论文达到工学硕士研究论文水平。,0,1,1,0,1,1,0,1,1,0,1,0,0,0 +1932,论文针对企业财务舆情信息和专利技术成果信息的数据挖掘问题进行研究,具有应用价值。论文给出了基于 ALBERT+CNN 的企业财务舆情分析模型、基于 ALBERT+BiGRU 的专利技术成果信息挖掘模型,通过对比实验验证了模型的有效性,并在此基础上设计与实现面向大数据的精准招商系统,有一定的创新性和工作量。格式规范,表达基本正确,图表清晰,写作逻辑较好。,0,1,0,1,0,0,1,1,1,0,0,1,0,0 +2055,为了解决由于减小晶体管尺寸而产生的亚阈值摆幅升高、短沟道效应等问题,本文提出了一种基于高肖特基势垒的高性能隧穿场效应晶体管的结构。该器件集成了隧穿场效应晶体管和肖特基势垒金属-氧化物-半导体场效应管的优点,具有反向电流小、正向电流大的特点。通过改变栅极形状、增加辅助栅、优化沟道尺寸等手段,优化了器件性能,并做了大量模拟仿真。论文选题很好,内容翔实,结构层次基本清晰,结论正确。,0,1,0,0,0,0,0,0,1,0,1,0,0,0 +2423,该课题研究基于目前锰所导致的水体重金属污染处理,将膜处理技术与微生物固定化相结合,采用荷正电的壳聚糖纳滤膜固定带负电的、具有除锰活性的微生物,通过壳聚糖与微生物的协同作用提高除锰性能,选题有较高的理论意义和实用价值,综述中对本学科及相关学科领域国内外发展状况和学术动态的有一定理解;课题研究中能提出的新见解、新方法,理论基础扎实,能系统掌握和应用该领域的专门知识,研究方法科学,有较强的分析问题、解决问题的能力,论文成果对该领域的技术进步产生一定的影响和推动作用;论文思路较为清晰,突出了课题的重点,引文规范,论文语言表达准确,逻辑严密,书写格式规范。综合评价良好,达到研究生论文水平,同意答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +182,传统电网故障诊断,多采用使用开关量信息进行。随着智能电网的建设,获取来自 SCADA、WAMS 系统的多源故障信息,可以充分合理的利用多源、异构的故障信息,会使电网故障诊断结果更加准确。论文基于电气量信息的电网线路故障诊断及变压器状态评估,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,建议修改后参加答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +386,论文采用储热储电联合方式作为风电消纳的储能设施,重点研究了控制策略和算法,并进行了设定条件下的仿真推演,获得的结果有力地支撑了控制策略的正确性和有效性。论文选题针对性强,意义明确;论文的创新点在于通过对比方式,对论文的控制策略进行了仿真计算和推演,获得结果比较具有说服力和参考价值。论文文献综述全面,运用了大量的最新的第一手材料;写作规范,文笔流畅,逻辑性强,反映出论文作者对本学科的知识掌握的很全面。,0,1,1,0,1,0,1,1,1,0,1,0,0,0 +2045,同步发电机进相运行与端电压及稳定运行密切相关。作者基于最小二乘法对同步发电机进相运行进行研究,不仅具有一定的理论意义,而且具有一定的应用价值。 作者在查阅国内外相关文献资料的基础上,对课题的背景及研究现状进行了较为系统地阐述,并结合基础理论、数学模型、试验和仿真分析,完成的主要工作及取得的主要成果如下: 1)基于试验数据,采用最小二乘法对同步发电机的交轴电抗进行了辨识。 2)建立了同步发电机、励磁系统及原动机调速系统的数学模型。 3)基于所建立的同步发电机系统数学模型及辨识的参数对同步发电机进相运行进行了仿真分析及对比,分析了影响进相运行的因素。 论文写作基本规范、文字基本通顺、结构基本合理。论文工作反映出作者基本掌握了相关专业的基础理论和系统的专门知识,基本具有从事科研工作和独立担负专门技术工作的能力。 论文基本达到工程硕士学位论文的要求,同意认真修改后作为工程硕士学位论文安排答辩。,0,1,1,0,1,1,1,1,1,0,0,0,0,0 +792,由于各类声音事件和声场中的时频特性变化较大,静止的背景噪声,声音事件的重叠等问题受到研究界的高度重视并进行了许多评估活动。面对以上问题,该硕士论文对声学事件检测的方法展开了研究。选题具有重要的理论意义和应用价值。 完成的主要创新性工作包括: (1)本文采用 MLP和 GMM 分类器对六种声学事件进行分类并检测,通过实验结果对两种分类器做相关的比较,证明了监督学习的神经网络在固定数据集的声学事件检测任务中优于非监督学习的GMM 聚类方法。 (2)提出了基于 CRNN-HMM 的声学事件检测分类方法。在特征提取阶段,对音频提取 MFSC 特征,在声学分类器的构建阶段,将卷积循环神经网络应用于语音信号的频率维度上进行声学建模,平均事件 F 分值比基线系统的 MLP 方法有明显提高。 论文工作表明,作者掌握了大量相关资料和本学科的知识,论文取得了重要的成果。 论文写作规范、逻辑性强。我认为该论文达到了对硕士研究生的要求,并建议组织答辩。,0,1,0,0,1,0,1,0,1,0,0,1,0,0 +1453,该文以一台 5.5kW、1500r/min 的4极永磁同步磁阻电机为对象,采用等效磁网络法对其进行电机参数化设计,分别研究了一字型和 U 字型磁障内永磁体宽度、永磁体厚度、一字型磁障宽度以及定子槽口宽度等结构参数对电机空载气隙磁密、气隙波形畸变率,以及有限元计算的部分方案凸极率方面的影响,从多种方案中选取符合要求的转子结构;在振动噪声方面,利用有限元软件分析了定子和整机不同阶次的模态频率,防止径向电磁力高幅值对应的频率与电机固有频率相近而产生共振现象。 全文条理清晰,重点突出,是一篇合格的硕士论文,同意进行答辩。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +2771,论文选题来源于实践,符合专业培养方向。研究成果具有较好的应用价值。论文在综述国内外相关研究的基础上,分析了适用新能源光伏企业价值评估的方法,构建了基于EVA法的综合评估模型,并通过晶澳科技案例进行了验证。论文逻辑较清晰,结构较合理,语言表达较准确、规范,研究资料较翔实,资料运用较合理,分析较深入,论证较充分,工作量较饱满。但也存在如下问题:1.对企业价值的内涵缺乏明确界定;2.在EVA参数的选择方面依据不够充分,具有较大的主观性;3.依据历史期我国GDP变化情况预测新能源光伏企业的增长率存在明显误差。我国新能源光伏产业作为具有国际优势的战略性新兴产业,其增长率必然高于我国GDP变化情况;4.基于EVA法的综合评估模型缺乏普适性验证;5.研究创新点缺乏提炼。综上所述,论文达到了资产评估硕士学位论文水平,同意修改后答辩。,0,1,0,1,0,0,0,1,1,0,0,-1,0,0 +1680,"论文通过查阅大量文献资料,综述了超级电容器及其电极材料,以CoMoO4为研究对象,探讨不同实验参数对所制备电极材料电化学性能的影响,通过实验制备了CoMoO4@MoZn22纳米片阵列,核壳结构CoMoO4@Co1.62Mo6S8电极材料和NiMoCo-LDH结构,并对相应的电极材料进行电化学性能测试,取得了校好的成果,对于开发超级电容器及其电极材料有一定的学术和应用价值。论文图表与文字写作规范,逻辑性强,实验数据多,工作量大。整篇论文表明作者的实验能力、科研能力与写作能力较好,达到了硕士学位论文的要求,同意答复。",0,1,0,1,0,1,1,0,1,0,0,0,0,0 +48,"SF6具有优良的介电强度和出色的灭弧能力被广泛应用在高压电器绝缘设备中,论文针对C4F7N/CO2混合气体展开压气研究,计算其基本物性参数,并计算不同充气压强、不同分闸速度和不同混合比例下压强变化情况,为新型环保气体断路器的设计提供基础,具有很好的工程意义。 论文的研究内容包括:C4F7N/CO2混合气体基本物性参数;C4F7N/CO2混合气体断路器开断过程电场数值计算;C4F7N/CO2混合气体断路器的压气特性影响因素分析。 论文结构合理,系统性较好,语言流畅;论文工作量和难易程度适中,符合硕士论文要求;通过论文可以看出,论文作者较好地掌握了本专业的理论知识,具备了一定从事相关研究和工程设计的能力;论文无原则性错误,论证方法和结果真实可信,计量单位和文字也较规范。",0,1,0,1,1,1,1,1,0,1,1,0,0,0 +1174,本文研制的深海运载器是一款具备自主航行、自主探测、自主工作能力的运载平台。针对运载器内部的载荷进行了布局方案的设计以及承载结构的拓扑优化。 研究具有一定的研究意义和实际用用价值。具有一定的从事科学研究的能力, 论文书写规范, 逻辑清晰, 语言通畅。 但论文的而创新性不足, 存在一定问题, 建议修改后答辩。,0,1,0,0,0,1,1,1,1,0,0,-1,0,0 +1369,该论文在仿真实验基础上设计并搭建了磁感应断层成像实验平台,以琼脂模型模拟了脑出血时MIT检测物理模型实验,以相位差数据分析验证了新型MIT系统相对于传统检测系统具有更高的灵敏度。 该论文选题具有较好的医学和工程意义,所搭建的实验系统具有较强的医工结合现实意义,通过物理模型实验取得了理想的研究成果,具有较强的创新性。全文分析较严谨,论据充分,逻辑严密,层次分明。 论文书写较规范,逻辑结构清晰,作者搭建实验平台工作量较大,体现出具有一定独立进行科研工作的能力,符合硕士研究生毕业标准。,0,1,0,0,0,1,1,0,1,0,1,1,0,0 +2240,1.文献综述堆砌,缺乏条理性,且缺乏述评。建议围绕现有青少年抑郁症的研究进展展开,突出现有研究从哪些方面,哪些层次进行研究,而青少年抑郁症研究还有哪些难点和争议;2.论文第四章和第五章的逻辑关系不是很清楚,第四章探讨青少年抑郁症的影响因素,第五章进行预测,从论文表述来看,建议先进行预测,然后探讨影响因素,预测主要是提取重要特征,作为后面逻辑回归的解释变量;3.第二章中2.1.1研究对象和第三章中3.1调查对象的社会人口统计学特征的文字表述有些重复,建议重写,避免重复;4.论文中统计调查设计过于简单,虽然论文得到3所初中和3所高中,但是缺乏如何进行整群随机抽样;5.调查问卷中具体条目值得深入说明,因为不同年龄段(如初中生和高中生)对具体条目的理解不同,论文中具体条目设计的问题是什么不清楚,同时缺乏调查问卷,建议放在论文附件中;6.支持向量机算法与XGBoost、RF进行比较不合适,因为XGBoost、RF是集成学习算法。,0,0,-1,0,0,0,0,-1,-1,-1,0,0,0,0 +432,论文基于VMD研究电力系统的负荷分类方法,选题具有一定的理论和实用价值。论文的主要工作如下: 1)提出了基于VMD和k-means的负荷分类方法,以实际典型负荷曲线为样本,通过对比验证了所提方法的正确性。 2)提出基于变分模态分解和奇异值能量差分谱的负荷分量方法,能够将对数据维度,算例验证了有效性。 3)提出了基于VMD和FCM的负荷分类方法,一定程度解决了数据特性不够显化导致的聚类准确度低的问题。 论文具有一定的学术水平和创新性,表明作者在电气工程学科领域具有一定的学科知识,写作规范,逻辑性较好。可以申请答辩。,0,1,0,0,1,0,1,0,1,0,0,1,1,0 +2172,作业成本法是一种较为先进的成本核算方法,尤其在间接费用的核算方面,相比于传统成本核算更加精细准确,也有利于成本控制。随着电子商务的迅速崛起,物流行业应运而生,由于物流企业自身的特殊性,其间接费用占比较大,运用作业成本法开展成本核算,不仅能提高成本核算的可靠性与准确度,还有助于识别物流企业运作过程中的低效与非增值作业,降低企业成本,加强成本控制。该生撰写的《作业成本法在 HG 物流公司成本管理中的应用研究》一文旨系统介绍了作业成本法及其在HG物流企业的实际应用,为物流企业成本核算与管理提供了参考,具有较好的应用价值。 该生查阅并阐述了国内外关于作业成本法的引入与发展、作业成本法在物流成本核算中的运用等相关文献,在进行文献述评的基础上提出本文研究的出发点与目的,具备一定的检索文献的能力。基于效益背反理论、物流冰山理论、成本驱动因素理论,针对HG物流公司成本核算的现状,开展作业成本法进行成本核算的必要性与可行性分析,并结合公司的具体案例,从核算原则、流程设计、具体核算、管理措施等方面展开论证。文章中心明确,思路清晰、内容完整、结构合理,语句通顺,阐述较为充分,写作达到规范化要求。,0,1,1,0,0,1,1,1,1,0,0,0,0,0 +399,论文从跨界并购的视角出发,以南洋股份并购天融信为例,分析了传统行业企业通过跨界并购实现多元化发展的动因、实现路径与风险,并基于此总结出传统行业企业跨界并购的启示。 论文的研究发现,南洋股份跨界并购主要是为了寻求多元化发展战略、寻求新的业绩增长点以及抓住信息安全产业的政策机遇。同时,南洋股份需要在主营业务、技术人员和客户资源等方面注意并购后的整合问题。此外,本文还发现南洋股份本次并购有利于提升盈利能力以及企业价值。在并购风险方面,文章指出南洋股份需要注意并购估值过高、标的行业竞争以及标的企业管理层整合困难等风险。 论文具有一定的研究贡献,传统行业的企业在面临发展瓶颈时,可以借鉴南洋股份并购经验,通过跨界并购优质企业实现自身的可持续发展。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1948,论文针对运输石油天然气等易爆易燃和毒性物质的管道定期检测技术和方法展开研究,论文选题具有较好的工程研究价值和应用价值。论文研究了基于捷联惯导技术的管道地理坐标惯性测绘原理及其相关算法,并给出了数据离线解算预处理流程,具有一定的研究内容和研究工作量,但创新性不够突出。论文所开展的研究结论和方法具有一定的参考价值。 论文写作不够精炼,研究内容偏少。,0,0,0,1,0,0,0,-1,0,0,0,-1,0,0 +918,该论文以太行山写生为创作的灵感来源与素材依据,结合自己的独特艺术感受进行了相应论述,尤其是在关于水墨氤氲的笔墨表现方面,体现出了一定的创新性,并且具有较好的应用参考价值。该论文在整体上有一定的逻辑框架,尽管显得较为简单,但基本上包含了不同的阐述层次。在论文的学术规范方面,在前次评审意见基础上进行了相应的修改,但仍有一些地方没有完全达标。就论文作者的绘画实践而言,达到了相当不错的艺术水准,但在艺术理论修养方面还有待于继续提高。,0,1,0,0,0,0,0,0,1,0,0,1,-1,0 +1108,本论文着眼于氧化铝陶瓷材料所存在的缺点和不足,以凝胶注模成型工艺为基础,探究了碳化硅晶须增韧氧化铝基陶瓷的强韧化机制和力学性能。所取得的研究成果对于进一步研究该方向具有较好的借鉴意义。论文作者对其研究工作具有较深入的理解和认识,论文选题正确。全文结构安排基本合理,逻辑思路清晰,观点表达准确,语言流畅,论证方法较合理。评阅人认为本论文基本达到了硕士学位论文水平要求,建议修改后直接答辩。,0,1,0,0,0,0,0,1,1,1,0,1,1,0 +2868,论文以造纸白泥轻质混凝土内隔墙板的配合比设计及其性能研究为题,选题顺应固废资源再利用与装配式建筑发展趋势,研究成果具有显著的应用价值与良好的社会效益。论文作者在总结本课题国内外研究现状的基础上,制备了一种造纸白泥轻质混凝土内隔墙板。基于正交试验法对轻质混凝土进行配合比设计和优选,开展了造纸白泥掺量对墙板的材料性能、抗压强度、抗弯性能和干燥收缩性能影响的研究。论文主要涉及混凝土配合比设计、材料的力学性能试验、材料微观研究等方面的理论与专业知识。从论文研究内容、试验方法等方面反映出作者具有混凝土材料相关领域的理论基础与专业知识,具有一定的科研能力。论文写作条理清晰,符合硕士研究生学位论文的要求,同意其参加硕士学位论文答辩。需注意以下问题:1、摘要中关键词,不是关键字。“配合比设计”应该列为关键词,“装配式建筑”是否作为关键词,应斟酌。2、第2章原材料与试验设计,建议此章内容融入到后续相应章节中,避免试验报告的写法。3、本文所涉及的混凝土力学性能试验,多为常规试验,具体操作步骤建议简写。另建议电镜图在图片上加注解。4、文中墙板的抗弯强度,其实质由受拉区边缘混凝土的抗拉强度决定,建议与劈裂抗拉强度对应分析。5、注意文献引用格式,如:文献[74]、[75]~[77]引用格式。,0,0,0,0,1,1,-1,0,1,0,0,0,0,0 +1701,论文选题符合马克思主义理论学科要求,具有一定的理论价值和实践价值。文献资料掌握较为丰富,综述较为全面,条理清楚。研究成果有一定创新,主要表现在观点提炼上,但整体创新度不高。文章框架总体适宜,有一定的逻辑性,文章内容能理论联系实际,语言表达较为通畅。从论文看,作者具有一定的马克思主义理论功底,具有一定的科研能力。,0,1,1,0,1,1,0,1,1,0,1,-1,0,0 +2459,该论文选题符合专业要求,数据来源于医学实际,通过提取超声报告信息,构建知识图谱,将机器学习模型应用到医学诊断中,运用PySide2、QT开发诊断程序,做了较好的尝试和创新,体现了较大的工作量。框架逻辑合理,行文流畅。达到硕士学位论文水平。摘要中研究背景部分占比较少,需要补充。研究内容部分需要精简。同时,关键词“预测”需要更换。文献综述部分,表达方式一般为:孙芳(2018),文中所有文献都没有年限。另外文献的梳理尚有欠缺,罗列文献的迹象明显。另外一般绪论中都会包括论文的创新点。,0,0,-1,1,0,0,0,1,1,0,0,0,0,0 +1392,该论文主要关注卷积神经网络的有关算法研究,针对通过增强目标检测网络的特征表达能力,从而提高单阶段目标检测算法的精确率方面,提出一些改进策略,主要体现在网络结构和学习策略等方面。该论文的主要结果有一定的理论意义和应用价值,在算法的执行及数值结果方面获得了不错的结论,对算法的理论分析方面略显单薄。总体上该论文的选题合理,论述较为清晰,论文达到了硕士学位的学术水平,同意参加答辩。,0,1,0,0,0,0,0,1,0,0,0,0,0,0 +2344,本文研究新能源电池企业价值评估案例,选题就有一定的理论和现实意义,内容较为充实,结构合理,符合硕士论文要求。建议对以下问题进行修改:1、文章理论意义部分,建议对内容进行精简梳理,首句点出理论意义,如丰富了x新能源企业价值评估研究文献等。2、文献综述建议按照:(1)企业价值评估相关研究(2)实物期权法相关研究(3)实物期权法在新能源企业价值评估的应用研究3、文章没有对创新点进行描述,建议增加该部分内容。4、第三章部分直接对锂电池企业价值评估方法进行分析,建议在之前增加一部分对锂电池企业价值影响因素进行分析。5、建议说明改进的实物期权模型在案例企业中的适用性。,0,0,0,0,0,0,0,0,1,0,0,-1,0,0 +12,《HXDZ股份有限公司营运资金管理研究》一文的选题符合会计硕士的要求,本文的研究方法也有一定的特色;从文献综述和营运资金理论概述的内容看,作者基本掌握该领域相关的基本知识,可以运用有关知识解决相应具体问题;作者极力希望通过多种分析方法来展现HXDZ公司营运资金的问题,但分析的逻辑和调理显得混乱,尤其是提出的改进建议不够具体。但也达到了硕士论文的要求。,0,1,0,0,1,0,0,0,-1,1,0,0,0,0 +1650,论文立题依据充足,能够理论联系实际,解决应用中的关键技术问题,论文的工作量满足硕士研究生的论文要求。气体绝缘金属封闭开关设备(GIS)是超 高压和特高压变电站电力设备中核心器件,论文分析了盆式绝缘子存在气泡缺陷和表面附着金属颗粒的情况下电场分布,进行了相应的电场数值仿真。给出了可能引起气体电离使盆式绝缘子发生击穿的分析结论。缺乏改进工艺措施或检测方法建议,内容深度不足。,0,1,0,1,0,0,0,0,0,0,0,0,-1,0 +2200,"“《澳大利亚重型汽车检测手册》(节选)英译汉实践报告”,以作者翻译《澳大利亚重型汽车检测手册》第2-10章为基础,以功能对等理论为指导,总结反思自己的翻译实践,以丰富的实例说明了作者在实践过程中运用相关理论知识解决翻译问题的过程、方法,证明了功能对等理论对科技类文本在词汇、句法、篇章英译汉的指导作用,对同类文本的汉译具有一定的借鉴作用。报告逻辑清晰,结构合理,层次分明。作者翻译工作准备充分,时间安排合理,可读性较强,论文的工作难易程度和工作量达到MTI硕士论文写作的训练要求。论文存在的不足之处体现在:1.表达:语言表达中存在主谓不一致现象,譬如:P.4:AsthemainreadersoftheAustralianHeavyVehicleInspectionManualistechniciansintheheavytruckindustry,…本句中的主语为readers,谓语动词怎么可能用is?2.译文:个别译文的语言表述还需润色、修改、打磨。3.引用:建议作者在文中的直接引言一定要用第一手资料,别用二手资料。譬如报告24页中的直引""Translationistoreproducetheinformationofthesourcelanguagefromsemanticstostyleinthemostappropriate,naturalandequivalentlanguage""(GuoJianzhong,2000)引言中的内容是美国著名翻译家奈达对翻译的经典界说。奈达本人的定义为“Translatingconsistsinreproducinginthereceptorlanguagetheclosestnaturalequivalentofthesourcelanguagemessage,firstintermsofmeaningandsecondlyintermsofstyle.”我们将作者对郭建忠翻译的奈达翻译定义回译成的英文与奈达的原文作一番比较,发现其表述相差胜远。故直引时,一定要使用第一手资料,才能领悟其精髓。4.细节:1)注意大小写问题:譬如英文摘要中第一段最后一句…toSummarize…中的Summarize;p2:Practically,Thisstudy…中的This;p.10:(1)…withthehelpofWordswithformrelationsandfunctions…中的Words、(2)Inthepost-translationrevisionstage,Thetranslator中的The;p.14里有多个单词,如Vocabulary、Lexical、In以及文章其他地方出现的其他单词,第一个字母肯定都不该大写。2)注意空格键的正确使用:p.17/24/27文中均存在空格键操作不当的问题。3)在p.26/27里,出现的书名均没有斜体。4)在2.1.2AnalysisofTextFeatures小节中,所举例句没有必要给出译文,专注文本特点分析就好。",0,1,0,0,0,0,-1,-1,1,0,0,0,0,0 +623,论文针对航空、汽车驱动用位置检测传感器的体积小和抗干扰性强的需求,开展磁阻式旋转变压器及其解码控制器的设计研究,选题具有较好的理论意义和实用价值。 论文在两种输出绕组绕线方式下的磁阻式旋转变压器工作原理分析的基础上,构建有限元仿真模型,开展输出绕组绕线方式对旋转变压器的精度影响研究,设计并制作了原理样机实验平台,在此基础上,基于FPGA开展了解码器的控制软件设计,最后通过实验平台对解码器的性能进行了验证。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1395,该论文主要探讨如何结合物联网技术和多温共配的配送方式对冷链物流配送车辆路径进行优化,从而达到提高客户满意度和降低成本效果,选题具有一定的前沿性、理论意义和实用价值。 论文主要内容是分析国内物流配送和多温共存的状态,并指出不足,其次论述了冷链物流、冷链物流车辆路径问题、物联网技术、多温共配的相关理论,再次构建配送成本最小的目标函数,分析在整个配送环节中产生的各种成本,选择人工鱼群算法求解动态问题,对基本人工鱼群算法进行改进,运用改进人工鱼群算法求解出最佳配送路径。 论文结构完整,思路较清晰,有一定的工作量,模型在传统路径规划基础上和算法上有一定的创新和改进。,0,1,0,1,0,0,0,0,1,0,0,1,0,0 +2015,输电线路绝缘子冰闪是导致电网运行安全性降低的重要原因之一,而随着经济的高速发展,大气污染日益严重,输电线路绝缘子表面污秽程度也逐渐增加,因此研究覆冰污秽绝缘子的闪络机理对提高电网运行的可靠性,降低冰闪事故率具有十分重要的意义,该选题具有重要的工程价值。 作者广泛阅读了大量有关文献,对研究和应用现状进行了分析和综述,开展了有价值的研究工作。论文取得的主要成果如下: 1、 实验观察了覆冰污秽绝缘子冰闪过程,测试了覆冰水电导率对闪络电压的影响; 2、 建立了覆冰绝缘子的二维轴对称模型并利用Comsol软件仿真分析了覆冰污秽绝缘子闪络过程中温度场、电场的动态变化过程; 3、 提出用双弧动态模型预测直流正极性电压下覆冰污秽绝缘子的闪络电压。 论文反映作者已基本掌握了本专业的基础理论知识,具备一定从事本专业科学研究工作的能力。论文叙述清楚、结论正确,达到了硕士学位论文的水平。 同意安排硕士学位论文答辩。,0,1,0,0,1,1,0,1,0,0,1,0,0,0 +673,目前国内外有关Al-Mg-Si 合金的研究主要集中在显微组织和力学性能方面,而对热裂性能的研究很少。本论文研究Mg/Si质量比对Al-Mg-Si 合金热裂性能的影响,重点研究Mg/Si比在1.73 前后热裂的变化,寻找减小合金热裂倾向的有效方法,可为制备综合性能优良的Al-Mg-Si合金提供一定的实验和理论依据。本文选题正确,研究内容丰富,研究结果可靠,对学科知识的掌握较扎实,写作规范性较好。,0,1,0,1,1,1,1,0,0,0,1,0,0,0 +713,随着清洁能源和微电网的兴起,以逆变器为并网接口的分布式电源大量接入电网。作者以“并网逆变器的虚拟同步控制技术研究”为题目作为硕士期间的研究方向,具有一定的工程价值。 论文分析了逆变器内部控制结构和并网原理,并设计了一种虚拟同步机控制方案。搭建了可以在线观测和控制参数的虚拟同步机实验平台,对虚拟同步机控制策略予以验证。 论文内容较充实,结构清晰,写作规范,行文流畅,达到硕士学位水平要求,同意举行硕士学位论文答辩。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +1775,论文研究商家在线回复对消费者重购意愿的影响,选题迎合互联网发展的普遍需求,具有应用价值。论文在相关理论及概念的针对性综述基础上提出研究假设,并选择网购消费者进行问卷调查,采用规范的结构方程研究方法,深入分析了商家对于网购失败消费者的在线回复,在质量、策略、及口吻三个维度对消费者感知的影响,以至于最终对重购意愿的影响,论文基于实证结论对商家的在线回复策略提出了建议。论文结构合理、假设及推理合理,问卷调研、数据处理及分析过程正确,行文规范。论文结论及建议对互联网商家的客户运营具有一定的借鉴意义。,0,1,0,0,0,0,1,0,1,0,1,0,0,0 +1503,"基于第一性原理计算,本论文系统地研究了两种不同结构类型的赫斯勒合金Cr2VSb和Cr2MnSi,并采用替换原子的方法进一步得到Cr基四元赫斯勒合金,通过计算几种不同结构合金的能带结构、态密度、弹性常数等细致研究了几种合金的结构、半金属性、磁性以及力学性质。这项研究既有丰富的物理内涵,又有重要的应用前景。论文获得的主要研究成果如下:1)计算两种不同结构类型的全赫斯勒合金Cr2VSb和Cr2MnSi模型,建立了采用不同原子替换Cr原子的方法得到四元赫斯勒合金CrXVSb (X=Co, Rh, Ir)体系和不同数量的Fe原子替换Cr原子的方法得到的Cr2-xFexMnSi(X=0, 1, 2)合金体系;2) 揭示了Cr基赫斯勒合金Cr2VSb/Cr2MnSi在采用不同种类原子替换和不同数量原子替换形成的四元赫斯勒合金的性质及差异,阐明了合金磁性和半金属性来源问题;3) 构建了Cr2VSb及其不同原子替换形成的四元赫斯勒合金和Cr2MnSi及其不同数量Fe原子替换形成的赫斯勒合金的理论研究成果体系,为未来实验研究和实际生产应用的理论支撑。本论文的计算方法严谨、可靠,对计算结果的分析认真、细致,对文献资料的掌握也很全面,论文的写作符合规范、逻辑性强。表明作者具备了独立科研的能力,已经达到博士学位所要求的学术水平,同意参加博士学位论文答辩。",0,0,1,0,0,1,1,0,1,1,1,0,0,0 +2701,"论文选题符合发展方向,有一定的工程应用背景和实用价值。论文对国内外相关研究现状进行了分析,确定了电磁阀检测分析方案,设计了一个电磁阀液压数据采集系统,通过设计实验来分析不同影响因素对液压系统油液压力的影响,结合卡曼滤波算法对数据进行了分析,反映作者具有初步从事科研的能力。但论文组织较乱,做的不够深入,文中有不少错误,主要问题如下:1、参考文献不全面,近年文献比较少,并且引用不规范,如P3、P4页,文中介绍“上海有一家从事自动变速箱维修与检修的公司……”、“德国ZF公司……”等相关内容,并没有将相关文献引用,其真实性无法评判。2、“2.1硬件电路设计”并无任何硬件电路,都是图片和功能的介绍,像产品说明书。应该设计相关控制电路、变频调速电路,把电气原理图补充完整。3、“2.1.1开关保护电路”描述不准确,应该与“2.1.1开关保护电路”合并,改为变频调速系统设计。图2-6的图片错误,这是开关电源,不是继电器。4、“2.1.3电磁阀液压系统电路”也缺少相关电路。缺少压力传感器的选型、电磁阀的型号,应该给出相关型号及参数,至少要给出参数。5、“图2-17”不正确,固态继电器就是加热开关,图中,加热开关是啥电气设备?交流接触器是做什么用的?固态继电器本来就可以控制电源通断了。要补充电路原理图,不不能仅仅给个框图。6、“2.1.5数据采集电路”中,图2-18采样的是数据采集卡方案,但摘要中给出是STM32负载采集控制,数据采集卡一般指插到计算机PCI插槽的采集卡,文中给出采集卡型号和电路,也没有给出STM32的硬件电路原理图,比如,ADC转换器与传感器的连接,DAC接口电路。图2-18中,压力传感器参数、电流传感器参数需要补充。7、“2.2卡尔曼滤波算法原理分析”仅给出了常规的算法,这都是教材的内容,针对本文特定系统,输入是什么参数、输出是什么参数,卡尔曼滤波算法如何应用没有给出。8、2.4节描述不准确,稳压电源一般输出恒定电压,电流由负载决定,如果调节电流,需要改变电压大小,电压达不到额定值,调节阀能否工作?9、“图2-24压力调节阀输出端压力随电流变化曲线”图题错误,横坐标是电流吗?图中横坐标是采样点,相对于时间。10、图2-25,图序错误,下面写的是2-22.11、“图2-26压力调节阀输出端压力随温度变化”,横坐标是时间,不是温度,图题错误。12、图3-2,流程图错误,“待测电磁阀输入端压力>设定值”用一个菱形表示,用“真、假”分别跳转不同的分支。另外,该判断的输入是A/D的数据,不是D/A.13、图3-4错误,PWM是调压,不是调节电流,另外PWM频率多高?文中没有说明,继电器不能作为PWM输出的执行器件,一般用于不频繁动作的场合。14、“4.1.2PID算法实现”,图4-2中,信号转换是什么意思,是数字量变换为工程量吗?是不是标度变换,需要补充说明。图4-3描述错误,计算机控制是离散系统,e(t),r(t),c(t)等应该是离散值,e(k),r(k),c(k)。PID算法,如何利用STM32实现,文中没有说明,仅给出了几个框图。15、STM32如何采集数据,如何输出模拟量,如何控制变频器,文中没有给出相关电路和程序,比如采样频率多少,如何采样等等。建议补充完善STM32的硬件电路和软件设计。论文选题符合发展方向,有一定的工程应用背景和实用价值。论文对国内外相关研究现状进行了分析,确定了电磁阀检测分析方案,设计了一个电磁阀液压数据采集系统,通过设计实验来分析不同影响因素对液压系统油液压力的影响,结合卡曼滤波算法对数据进行了分析,反映作者具有初步从事科研的能力。但论文组织较乱,做的不够深入,文中有不少错误,主要问题如下:1、参考文献不全面,近年文献比较少,并且引用不规范,如P3、P4页,文中介绍“上海有一家从事自动变速箱维修与检修的公司……”、“德国ZF公司……”等相关内容,并没有将相关文献引用,其真实性无法评判。2、“2.1硬件电路设计”并无任何硬件电路,都是图片和功能的介绍,像产品说明书。应该设计相关控制电路、变频调速电路,把电气原理图补充完整。3、“2.1.1开关保护电路”描述不准确,应该与“2.1.1开关保护电路”合并,改为变频调速系统设计。图2-6的图片错误,这是开关电源,不是继电器。4、“2.1.3电磁阀液压系统电路”也缺少相关电路。缺少压力传感器的选型、电磁阀的型号,应该给出相关型号及参数,至少要给出参数。5、“图2-17”不正确,固态继电器就是加热开关,图中,加热开关是啥电气设备?交流接触器是做什么用的?固态继电器本来就可以控制电源通断了。要补充电路原理图,不不能仅仅给个框图。6、“2.1.5数据采集电路”中,图2-18采样的是数据采集卡方案,但摘要中给出是STM32负载采集控制,数据采集卡一般指插到计算机PCI插",0,1,-1,0,0,1,-1,-1,-1,0,-1,0,0,0 +1712,论文选题具有现实针对性,围绕着新时代爱国爱党爱社会主义高度统一的相关认识误区作为研究视角,对错误言论有利抨击,以正视听,通过层层递进的论证,厘清了三者高度统一的逻辑关系,具有重要的理论和现实意义。论文的研究坚持以马克思主义为指导,基本观点体现了马克思主义的立场、观点和方法, 并且在实现路径方面有一定创新。文字表达准确,语言流畅,概念清晰,分析严谨,格式规范。论文总体上符合硕士学位论文要求!,0,1,0,0,0,0,1,1,0,0,0,1,0,0 +526,论文研究了基于超声检测图像的金属铸件内部缺陷识别方法,选题具有一定的理论意义和实际实用价值。 作者首先介绍了铸件超声波检测技术、图像预处理方法、神经网络原理和卷积神经网络;然后,分别采用BP神经网络和卷积神经网络对铸件超声缺陷进行了识别,方法可行,基本上掌握了本学科的基础知识和专业知识。 论文结构合理,写作规范。,0,1,0,0,1,0,1,0,0,1,0,0,0,0 +1039,1、针对内嵌式永磁电机结构优化设计问题,论文提出了基于高精度克里金模型的快速鲁棒优化设计方法,具有一定的理论研究意义和工程应用价值。 2、通过几个解析测试函数在不同扰动下条件下,对高精度克里金模型与鲁棒算法结合的新型算法进行测试,验证该新型算法的有效性。在简要分析内嵌式永磁电机工作原理基础上,总结了影响齿槽转矩的结构参数,结合商用有限元分析软件,开展了内嵌式永磁电机结构优化设计工作,通过结构参数优化前后的齿槽转矩变化证明了算法的可行性。 3、研究成果对于指导内嵌式永磁电机结构设计具有一定的理论参考价值。,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +2406,蚕丝蛋白纤维的溶解与回收利用,是纺织科学与工程学科的一个重要研究领域,提取的丝素蛋白在膜材料、化学纤维制品的改性等方面具有广泛的应用前景。论文选择采用漆酶催化丝素蛋白交联,并之后通过漆酶催化丝素接枝壳寡糖和壳聚糖,制备了力学性能较好的抗菌膜材料。具有较好的实用性,研究结果对实际应用具有一定的指导意义。论文在各类工艺研究、性能分析等方面,完成了大量的实验研究工作,研究方案合理、性能表征与数据分析符合科学性要求,图表清晰规范。达到了硕士论文的整体要求。但论文整体缺乏对漆酶催化丝素蛋白交联、漆酶催化丝素接枝壳寡糖和壳聚糖的基础理论研究,望尽力补充完善。同意修改后答辩,并推荐申请授予硕士学位!,0,0,0,0,0,0,1,0,0,0,0,1,0,0 +944,论文基于自己的毕业设计作品微电影《初心》的人物形象塑造进行研究,从情节设置、演员表演、镜头语言等角度分析对人物塑造的影响。总体来看,作品质量尚可,但演员表演比较生硬,人物造型需要考虑身份职业等。论文选题比较一般,框架结构设计不太合理,且问题不够明确,部分内容如国内研究现状和第五章等写作过于单薄,分析展开不够深入。论文引用不够规范,语言不够流畅,存在表达的语病,且出现多处低级失误,应仔细校对,认真修改和补充内容。,0,-1,-1,0,0,0,-1,-1,-1,0,0,0,0,0 +1814,论文以建立一个考虑温度与应力耦合作用的复杂磁特性磁滞模型为研究对象,实现对贴近服役条件下的电工钢片矢量磁特性的精细模拟,选题具有一定的理论意义和应用价值。作者对国内外研究现状的了解和掌握较好,文献阅读基本达到要求,表达逻辑严谨。 论文主要工作包括:首先对传统BP神经网络磁滞模型进行研究,提出基于深度卷积神经网络的磁滞模型。然后采用考虑多物理场条件下耦合二维磁特性测量装置测得电工钢片的矢量磁特性,实现对温度和应力耦合条件下电工钢片磁特性的较精确测量。通过对测量的数据进行一定的预处理,并引入残差模块和批规范化层,建立深度卷积神经网络磁滞模型。最后分别采用BP神经网络、卷积神经网络以及基于残差连接的深度卷积神经网络实现应力与温度耦合作用下对电工钢片矢量磁特性的模拟,经过对比分析模型结果,证明提出的残差神经网络的磁滞模型具有更好的模拟精度。 论文工作量比较饱满,也具有一定的创新,反映出作者专业知识扎实,科学理论基础扎实。作者得出的结论明确,仿真分析合理,资料来源的可信度较高。论文对解决工程技术中重要问题具有较好的作用。,0,0,0,1,1,0,0,0,0,0,0,1,0,0 +2897,论文针对近年来网络热议的大学生等青年群体中出现的佛系心态问题开展研究,引入了心理资本建设的理论,在选题方面具有一定新意;进行了问卷调查和深度访谈,开展了小组工作,能够综合运用社会工作相关的研究和介入方法,这些是值得肯定的部分。基本达到了社会工作硕士学位论文水平。但论文也存在以下问题:一是对于佛系问题界定不清、存在前后矛盾。(1)佛系究竟是一种情绪问题还是学生面对压力时的自我保护,如果是情绪问题在之后的小组工作中应聚焦解决情绪问题,如果是自我保护则需要解决的不是佛系,而是产生佛系的相关因素。前文在佛系心态的产生原因中说是受同学佛系心态影响、想要融入同学群体,后文在小组工作中组员的困难却是与舍友志趣不和、同学积极而自身消极;如果反对佛系似乎应该是鼓励积极参与“内卷”竞争,但在建议部分提出防止竞争“内卷化”;此外,小组工作中采用的冥想方法,其本身所提倡的关注当下、不评判等理念,某种程度上正是“佛系”思想的体现。(2)佛系心态与积极心理学的关系没有阐述清楚。佛系心态是一个日常用语,积极心理学是一个学术概念,对佛系心态用积极心理学的概念去分析,应该是这样一种关系。论文中建立假设分析两者的关系,假设的理论依据是什么?二是问卷设计不严谨、数据分析说服力不强。1.结论过于武断。如“由表4-1可见,对于自己是否属于佛系心态大学生,58.9%的调查对象不确定自己是否属于佛系心态大学生,17.9%的调查对象确定自己属于佛系心态大学生,23.2%的调查对象确定自己不属于佛系心态大学生。由此可以看出,调查对象中的大部分大学生存在佛系心态表征。”17.9%的人认为自己属于佛系,并不能得出大部分大学生存在佛系心态。2.在问卷设计中有一个包含18个问题的佛系心态五分量表,但在论文中似乎并没有使用该量表,用的仅是学生自我认识情况的三分量表。基于佛系五分量表计算的量表得分是连续性变量,适合t检验、F检验,如果没有计算量表得分而是基于自我认知的三分类情况,那么T检验和F检验是不合适的。文中对于佛系心态以及积极心里资本量表的题目设置、维度界定、得分计算等缺乏足够说明。佛系心态与所有人口学变量均不存在显著差异,要么说明佛系心态无差别普遍存在、问题不具代表性,要么说明问卷的问题设置维度单一、信息量不足;回归方程调整后R方均小于0.3,最低为0.14说明回归方式解释能力有限,那么用心理资本解释佛系是否太过牵强。此外,活动的后测与前测数据没有经过配对样本T检验,数据变化的说服性不足。三是小组活动的设计针对性不强。活动没有很好地契合心理资本建设的四个维度,缺乏理论呼应;由于佛系概念的模糊,选取的小组成员面临的困难各不相同,组员之间难以产生共情进而限制了团体动力的发挥。四、论文结构还需要调整。建议前三章合并为一章,第四章为第二章:大学生佛系心态的现状及成因。,0,0,0,0,0,0,-1,0,-1,-1,-1,0,0,0 +919,该论文在场域理论下探究《今晚新闻场》主持人媒介形象研究,选题具有较大的理论和实践意义,前期文献综述和基础理论内容较为详实,对于文献资料综合分析与运用方法相对得当,研究问题思维较缜密,但研究方法与设计不够多样,思路较清晰。总体来看结构比较合理,层次清晰,逻辑性较强。 论文可以从以下几方面进行完善: 1. 理论依据部分并未涉及到具体的场域理论内容,还是在阐述研究的可行性和必要性,建议在此部分进行适当的理论内容填充。 2. 研究方法中的案例法中样本分析的数据不够具体,过多描述部分,建议加强一定量的数据化分析,以便获得更有支撑力度的资料。 3. 文献综述部分编号排序略显缀余,建议对其内容进行整理修改或更换编号排序方式。 4.文章中存在部分数字语言运用不当,请整体通读后更正。 ,0,1,1,0,0,0,-1,-1,1,-1,0,0,0,0 +2780,论文选题有一定的理论与应用价值,结构比较完整,逻辑、层次尚可,格式基本符合规范。对翻译转换理论理解基本到位,能对原文进行有效分析,并对翻译实践进行比较完整的记录与研究,具备了基本的理论与实践相结合能力。具备一定的问题意识,展开了较充分的举证与论述。文字表述尚存问题,使用规范学术语言阐述问题的能力需要提高。英语语言存在“中式英文”现象,以及搭配不当、语法错误等问题。基本达到硕士论文学术要求,建议进行修改后答辩。,0,1,0,0,0,1,1,-1,1,0,0,0,0,0 +1436,该文对牵引变压器皱纹纸和T4绝缘纸板进行了老化介电特性测试,并采用Davidson-Cole模型建立特征参量与老化时间的关系,最后用COMSOL Multiphysics软件对变压器主绝缘进行电场仿真,发现绝缘纸老化后高压绕组到铁芯的中间电位有一定程度的上升。本文选题与本学科当前发展,与经济建设、社会发展有较为密切的联系,实践价值较大。该生透过了解国内外本研究领域现状和研究成果,能收集论文写作所必需的参考文献,有较好的分析潜力。所做工作如下: 1.分析了老化温度不同的情况下两种绝缘纸介电常数的实部和虚部变化; 2.建立了改进的 Davidson-Cole 数学模型,实现了模型中三种特征参量的拟合; 3.建立变压器电场仿真模型,通过改变电场变化情况,研究了老化温度和老化时间对各部件电位的变化情况的影响。,0,1,1,0,0,0,0,0,0,0,0,0,0,0 +1772,论文研究某互联网电视公司的能力盈利,选题具有一定的现实意义,基本符合金融专业硕士选题方向。论文从盈利模式的基本概念入手,在阐述相关理论的基础上,基于互联网电视产业的发展特点和NT公司独特的盈利模式特点,对NT公司盈利模式的五个构成要素进行分析。在此基础上进一步构建NT公司盈利模式评价体系,运用模糊综合评价方法对NT公司的盈利模式运行效果进行了评价并结合评估结果给出了相关建议。论文结构较合理,分析较深入,文字表述流畅性,严谨性有待进一步提高。基本达到硕士论文水平。,0,1,0,0,0,0,0,1,1,0,0,0,1,0 +2605,论文《马克思恩格斯友善思想研究》,在选题上呈现出一定的现实性,具有一定的研究价值与意义。全文语言通顺、结构完整,体现出作者能够较为熟练的运用学科理论知识分析问题。但该论文不足之处也十分明显,具体如下:其一,出现了错别字、病句与格式问题。如绪论及结语均出现标题,不符合学术规范、第1页“友善是社会主义价值观公民层面的重要价值观,其深入人心需要进一步研究阐释”、第9页“马克思在1848年曾参与法国二月革命时起草了《共产党在德国的要求》”、第10页“在当时的教育环境下,工人阶级能够就读的学校的存在很多不具备基本的思想道德修养和科学文化修养的教师。”、第10页“这一现实状况充分体现了无产阶级的不仅物质生活条件差,还饱受资产阶级的精神摧残。”均为病句,相似问题还有很多。另外文末参考文献处,作者姓名之间出现空格,格式不一致。其二,标题与文章内容不一致。论文第一章“马克思恩格斯友善思想渊源及哲学基础”,文章内容并未与友善真正相关。论文第二章第一节“马克思恩格斯友善思想的基本观点”中所论述的并非马克思恩格斯友善思想的基本内容,没有呈现出马克思恩格斯的观点或论述,如在第19页论述的“新冠”肺炎与“坚持一个中国原则”的内容,第21页论述的美国抗议政策,这样的内容不能构成马克思恩格斯关于友善思想的基本观点。其三,引文与文章内容并不相符,如第18页“习近平总书记也曾强调:“科学社会主义基本原则不能丢,丢了就不是社会主义。”并为涉及到友善的内容,此外前文提出“坚持四项基本原则是友善思想的原则性在维护国家团结稳定方面的重要体现”也缺乏依据,十分牵强。其四,章节设置出现一定重合。论文第三章“马克思恩格斯友善思想的时代价值”与第四章“马克思恩格斯友善思想的时代传承”,虽然是两个章节,但两章内容在本质上是重合的,并没有呈现出论文结构的递进性。综上所述,该学位论文尚有较大提升空间,建议认真仔细修改。首先,要端正态度,修改文章中的错别字与病句。其次,调整文章标题与内容,详细梳理马克思恩格斯关于友善思想的论述与内容,并以此为根本依据总结特征、分析价值。其次,避免论述与文章主旨无关的内容,提升论文整体的学术性与严谨性,提升语言的规范性。最后,要仔细核对引文,做到合理恰当。,-1,1,0,0,0,0,-1,1,-1,0,0,0,0,-1 +988,学生课业负担过重问题一直是基础教育的难点,2021 年国家颁布的“双减”政策再一次凸显了减轻学生课业负担的必要性与紧迫性。“双减”政策的贯彻落实,需要学校结合本校实际采取有效措施给学生“减负”。学校采取了哪些措施,具体如何操作实施的,取得的效果如何,学校“减负”有哪些成功的经验,面临哪些困境,这些都是“双减”政策实施过程中需要关注和研究的问题。作者以此为选题具有良好的理论意义与实践价值。作为修改稿,改版本有了较大的改善,修改了原因文本的许多硬伤,现在已达到硕士论文的基本要求,可以参加毕业答辩。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +2604,论文《马克思恩格斯的生态劳动思想及其当代价值研究》选题居于一定的现实性、学术性及创新性,能够在理论梳理的基础上阐析马克思恩格斯的生态劳动思想的理论渊源、主要内容与基本特征,并在此基础上阐发了马克思恩格斯的生态劳动思想的当代价值。全文内容详实、条理清晰、逻辑合理、语言使用规范、材料运用得当,符合学术规范,反映了作者较为扎实的学术功底,也体现出作者能够熟练的运用学科知识,并在此基础上能够提出自己的独到见解。但该论文也存在着一些问题:其一,论文摘要中“同时又将产生的废弃物反哺自然”,反哺一词为褒义,在该语境中不应使用“反哺”;其二,论文出现格式错误,如第15页脚注“《《欧文选集》》”出现了两个书名号。总体而言,这是一篇符合要求的学位论文。,0,1,0,1,1,0,1,-1,1,1,0,0,0,0 +162,本文针对固体电蓄热装置供热效率不理想等问题,基于流固耦合方法对固体电蓄热装置蓄释热过程进行了数值模拟仿真及实验研究,并结合分析结果对固体电蓄热装置的关键参数进行了敏感性分析,具有一定的理论与实际意义。论文建立了电蓄热三维流固耦合传热数学模型,并对电蓄热装置内的相关过程进行了数值模拟;搭建了固体电蓄热装置实验平台,并基于该平台对数值模拟的结果进行了验证;对蓄热体孔隙比对蓄热与释热效果的影响分析,给出了蓄热结构孔隙比参数的选择方法;对固体电蓄热装置的关键参数进行了敏感性分析。论文思路清晰,分析过程合理,写作规范,其结论对提高电蓄热装置供热效率具有一定的理论与实际意义。论文表明该同学掌握了坚实的基础理论和系统的专门知识,达到了硕士研究生的培养要求,可以进行硕士学位论文答辩。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +228,该论文的主要工作可分为两个部分,首先是用MS研究复合材料的界面及石墨烯本身特性问题,然后用ANSYS软件从连续介质宏观力学研究方法开展了基于体系胞元的单轴压缩和拉伸数值模拟工作,分析了复合材料界面应力分布特征,并预测了弹性模量等,在复合材料的界面及石墨烯本身特性问题得到了一些有参考意义的结论。论文撰写总体语言表述良好,建议有限元计算部分的图做二次处理,而不是导出来就用。论文存在的其他问题修改后可以答辩。,0,0,0,0,0,0,0,1,0,0,0,0,0,0 +2550,该文以阿霉素心肌病为模型,采用中药数据库挖掘绞股蓝有效活性成分并预测其潜在靶点,借助疾病数据库获取阿霉素心肌病靶点;采用网络药理学深入研究绞股蓝有效活性成分-绞股蓝总皂苷抗心衰的潜在分子机制;从心衰本身基因出发,基于心衰基因表达数据,通过差异基因分析、特征选择等,筛选出与心衰显著相关的关键基因群,通过研究得到有意义结论,绞股蓝作为心肌保护药的药效基础广,可通过核心靶点参与线粒体稳态调控来保护心肌细胞,为治疗基因的选择提供参考。。该文论证思路清晰,选择方法得当,图表标注准确。,0,0,0,0,0,0,0,0,1,1,0,1,0,0 +980,文章选择研究本人毕业音乐会中演唱的曲目塔吉克族民歌《花儿为什么这样红》进行了歌曲分析和不同演唱版本比较。选题能结合自身的艺术实践活动,并与本专业研究方向密切相关,符合艺术硕士学位要求。论文内容涉及塔吉克族民歌《花儿为什么这样红》的概述,音乐作品分析和不同演唱版本的分析与总结,逻辑较顺畅,层次清晰,具有一定的理论价值和现实意义。文献搜集整理总结能力尚可。本研究仍然有很大的提升和改进空间。建议进一步开展研究。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +2800,论文研究问题体现了专业性,很有意义;论证逻辑清晰,结构合理,形式规范,达到了硕士论文水平。论文中存在的问题:(1)论文中随迁儿童所在社区的需求,使用“您觉得目前对随迁儿童的情绪管理采取一些提升措施有必要吗?”这个问题,在后面社区工作人员访谈提纲中没有。(2)论文中使用的量表没有做信度效度分析,作为定量方法不够规范。(3)证明干预效果不应该只使用前测后测,应该有对照组。(4)家庭需求和社区需求都做了评估,但是效果评估没有涉及这两部分需求,也没有明确的针对这些需求设计服务。,0,1,0,0,0,0,1,0,1,-1,-1,0,0,0 +1997,全氟化合物PFASs的特殊结构具有疏水和疏脂性质,以及化学和热稳定性,使其难水解、光解,代谢和生物降解。该论文在大量文献调研的基础上,选择了植物对PFASs的吸收和修复方面的研究,论文选题具有重要的研究意义和较大的挑战性。论文主要结论如下: (1)随着采样点对氟化工业园区距离的增加,采集到污染物的浓度逐渐降低。黄瓜和西红柿主要富集短碳链的PFASs,土壤主要吸附长碳链的PFASs。实验测得环境中PFASs总浓度:地下水>土壤>蔬菜。 (2)PFCAs和PFSAs中植物的积累顺序分别随着碳链的升高而降低。 (3)土壤去除率的趋势与蔬菜生物累积量的趋势相似。在PFCAs和PFSAs中,蔬菜对土壤中的去除率分别是随着碳链的升高而降低。链长相同,蔬菜对土壤中PFCAs的去除率大于PFSAs。 该论文内容丰富,实验数据详实,实验分析严密、正确,结论合理,显示作者扎实的基础知识和良好的解决问题能力。在攻读硕士学位期间,作者已发表研究论文,表明作者具有较强的独立从事科研工作能力。论文书写规范,语言表述清楚,逻辑性强,思路清晰,达到硕士论文学术水平。同意组织论文答辩,并建议授予硕士学位。,0,1,1,0,1,1,1,1,1,0,1,0,0,0 +2127,在面对新冠肺炎疫情和中美贸易摩擦等重要事件下,我国经济增长充满诸多不确定性,而货币政策也是影响宏观经济最直接、最迅速的调控方法。论文从理论上分析了货币政策不确定性对消费、投资、产出、通货膨胀等宏观经济变量的影响机制,并结合TVP-SV-SVAR模型实证检验了货币政策不确定性对各种宏观经济变量的时变影响。论文选题具有一定现实意义,结构较为合理,实证过程尚算规范。但是可惜没有能结合新冠肺炎疫情或中美贸易摩擦等重要事件来分析货币政策对宏观经济的调控效果,而仅仅是常规的实证研究,使得研究的现实意义有所减弱。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +224,该论文的题目是“可实现电源线载波的小型断路器集中供电系统研究的研究”,关键词应该是“集中-供电系统”,限定词是“可实现-电源线载波”。从内容看,主要是研究电源系统的实现方法,这部分工作的技术水平较低,几乎都是是二十年前的技术,所讨论的问题过于基础;”电源线载波“则分别讨论了耦合、调制问题,整体的实现方案并没有给出。论文没能采用比较新的技术,关键技术问题没有深入研究和展示、创新性较差,论文的写作水平较低。 总体上看,论文工作没有达到硕士研究生培养的目标,与较好的本科毕业论文的水平相当,因此本人不同意该生参加论文答辩,主要的不足之处见下面的详述。,0,0,0,0,0,0,0,-1,0,0,0,-1,-1,0 +1496,核自适应滤波算法是非线性自适应滤波研究领域的热点问题,论文针对现有算法的局限性,开展研究工作,作者的选题具有明确的理论意义。论文在研究核自适应滤波算法相关理论和方法的基础上,从核函数、反馈结构以及步长因子三方面进行改进,提出基于单反馈结构的可变步长的混合核自适应滤波算法,其研究方法有一定的创新性,研究成果具有一定的理论意义和价值。论文难易程度适中,工作量饱满。论文逻辑性较强,文献综述较为完善,文字表达较为清晰,重点突出,文章格式符合学术规范。论文研究工作反映出作者具备较强的专业理论知识,有一定的科研工作能力,达到了专业学位论文水平。,0,0,1,1,0,1,0,0,1,1,1,0,0,0 +1248,传统三维重建算法主要采用图像中的特征点、线等低层特征,在单一纹理、梯度变化不明显的区域以及复杂多变的情况下,缺乏良好的自适应与泛化性问题,为此,论文提出了基于多视觉立体几何的对象三维重建模型。运用拍摄的多视角图像进行了二维目标检测,并将检测结果融入三维重建系统,实现了相机-三维点云-对象之间的两两约束关系,提升了复杂场景下的相机位姿估计精度以及场景重建精度。 论文层次清晰,结构合理,内容充实,数据可信,达到硕士毕业标准,不足之处修改后可以参加答辩。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +1393,该论文主要开展基于区块链的企业物流电子单据方案设计与优化。选题具有一定的前沿性和实用价值。 论文介绍了区块链技术,利用DEMATLE方法分析了X公司物流单据信息化各因素之间的相互影响,得出影响X公司物流单据信息化的主要因素。进行企业物流电子单据系统设计与UAT测试。最后展示系统实现后电子签单相较于纸质单据方案的节省费用并使用SWOT对电子签单方案进行分析展望。 论文结构较完整,思路较清晰,有一定的工作量,但是在分析、研究方法上缺乏一定的创新性。,0,1,0,1,0,0,0,0,1,-1,0,0,0,0 +1005,"""基于动态再结晶的奥氏体不锈钢热加工过程研究""一文,对对机械热加工过程进行了模拟研究,对两种材料变形过程中的微观组织进行详细的表征。课题研究对机械热加工有一定现实意义,作者阅读了本研究领域的大量文献,对本领域的研究动态有一定了解,评述比较到位,合理确定了本文的研究问题;研究成果有一定的实用价值,研究成果有新意,难度一般,研究工作量较大;论文写作反映出作者掌握了本领域的基础理论和系统的专门知识,具备从事本领域科学研究工作的能力;论文写作逻辑线条清晰,结构较合理,图表较规范,达到了硕士学位论文的基本要求,同意进行答辩。",0,1,0,1,0,0,1,0,1,0,1,1,0,0 +2828,论文以车用铝材检测为研究对象,提出采用感知压缩方法来实现无损探伤,老题目新方法,具有较好的工程应用前景。不足之处在于:1.论文在摘要、全文总结和研究内容的行文过程中均没有明确自己的创新性所在,有贡献但缺提炼;2.研究背景和意义太长,建议压缩到一页左右;3.研究现状分析最后讲到立足于文献9,而该文献只是提出了压缩感知,并且出现在研究背景里,研究现状里的其他几十篇论文对你自己研究有何启发和贡献呢?4.读完ANSYS仿真就戛然而止,缺少试验验证,工作量略显不足;5.只看到了均质铝板的材料探伤,冲压等加工工艺后能否检测的出来呢?总之,该论文达到了硕士学位论文水平,同意组织答辩。,0,0,-1,-1,0,0,-1,0,-1,0,0,0,0,0 +2693,论文写作规范,逻辑清晰,结构合理,方法运用合理,研究数据准确、翔实,结论合理,对策建议具有一定的实践指导意义。已达到硕士学位论文水平的要求,但存在以下问题待进一步完善:一、摘要部分应就本文的评估结论作简要的表述。二、实践意义部分,所写意义显得过于宽泛,不够聚焦,应在对评估对象所得出的成果的基础上来展开。三、文献综述部分对近年来的文献参考不足,研究的前沿趋势判断待提升。创新点处,“综合层次分析法、因子分析方法、模糊综合评判法等数学模型量化指标”这个并不能称之为创新。四、第二章,所涉及的品牌、商标、商誉、品牌评估方法等概念、方法的引用出处应加以注明;五、研究结论部分,第(2)、(3)说的是模型的改进、指标的量化问题,并不是本文的研究结论。六、文中还存在错字、漏字部分,请认真检查完善。,0,0,-1,0,0,0,-1,0,1,1,0,1,0,0 +2417,对镁合金变形机理的研究,有利于深入认识镁合金的性能,促进镁合金在各领域的广泛应用具有重要意义。作者阅读大量文献后研究低幅循环扭转变形条件下,幅值,频率,周期对镁合金力学性能的影响,用累积应变模式代替了大塑性变形模式,研究内容上有创新,得到有意义的研究结论。实验方法设计严谨,数据可信,工作量饱满,论文写作规范,逻辑性强,结构层次清晰,文字表达通畅,掌握了本专业的基础理论知识,具有从事本专业科研开发的能力。同意安排硕士学位论文答辩,若答辩通过并满足规定条件,建议授予硕士学位。1.英文摘要修改。2.错别字。例如:P14“归因于一下两点”。3.P33参考文献上角标。4.建议试件在做拉伸、压缩曲线图时,每种颜色代表一组参数组合,比如黑色线代表未处理的,蓝色线代表扭转角4˚参数的。图3-1和图3-3;图4-1和图4-3;图5-1和图5-3。5.图5-5的标尺。,0,1,0,1,1,1,-1,1,1,0,1,1,0,0 +781,以轮毂电机舰载机牵引车牵引特性为研究对象,针对牵引车的驱动防滑(牵引力控制)以及制动过程进行分析与研究。主要的工作有: (1)建立基于矢量控制的轮毂电机仿真模型与基于魔术公式的轮胎模型,在Trucksim中构建整车动力学模型。 (2)对整车进行联合仿真,仿真的结果表明,在对舰载机牵引车进行模糊防滑控制的仿真实验中,模糊控制器能准确识别仿真工况的路面附着系数,并控制驱动力分配进行驱动轮的转矩调整,保证车轮的滑转率在所有仿真条件下保持在最优滑转率附近,保证了更好的驱动性能。在制动仿真中,带有ABS 的仿真结果表现出更好的制动效果,较短的制动距离以及良好的滑移率。 论文写作规范、逻辑清晰、论证有据,达到硕士论文要求,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +236,该论文结合翅片管换热器在固体电蓄热系统中的应用中换热效率低的问题展开研究,通过fluent建立翅片管换热器的数值计算模型,并通过数值计算数据对进行正交试验,获得了最优的翅片管结构参数。论文选题合理,研究结论可为进一步提升翅片管换热器的换热效率提供借鉴。论文的研究内容表明作者掌握了本领域一定的基础理论和专业技能,具备了独立从事科学研究的能力。论文思路较清晰,行文流畅、表格式较规范。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +634,论文针对某型水泵叶轮转子的模态分析及轴向力测量系统开展研究,建立了相应的有限元模型,对叶轮的应力、变形情况和固有模态进行了分析,有一定的创新性,但是论文存在研究内容偏少,实验验证不足等问题,具体如下: 1. 引言部分,关于课题研究背景的总结和评述不够深入,所例举的国内外发展现状不够详细,图片较少,不能很好地展现叶轮转子的研究历程; 2. 论文第二章基本内容为有限元的计算方法,基本是引用参考文献的内容,无需作者进行重复性的描述,建议紧密结合课题进行展开,并补充采用有限元法的不同计算模块以及所采用的单元类型和边界条件与本研究之间的关系; 3. 第三章中,所述水泵类型没有具体给出,如因为特殊原因不能给出,也要明确该型水泵对应的主要设计参数有哪些。有限元的计算结果表明所设计的叶轮满足设计需求,但没有明确叶轮的设计需求是什么?第27页第一段,公式表述有误,应为联立公式(3.3)-(3.8)。 4. 第四章中,作者提出了一种轴向力测量系统,并开展了有限元分析,但是有限元分析的结果受网格划分和边界影响较大,虽然作者提出采用间接测量的方法对轴向力进行了测量,但是并未在文中给出测量结果,理论计算结果缺乏必要的实验验证。,0,0,-1,0,0,0,0,-1,0,0,-1,1,0,0 +1509,激光熔化沉积技术具有巨大的优势,在材料制备领域受到了越来越多的关注。锻造铝合金的强度高,开展锻造铝合金的激光熔化沉积工艺进行研究具有重要的意义和应用价值。作者采用了具有水冷工作台、氧含量分析仪及温度检测仪等的先进的激光熔化沉积平台,进行铝合金的激光沉积试验,获得了能量密度、扫描方式、送粉速率等对成形试样致密度、组织性能的影响规律;研究了热处理工艺参数如:固溶温度、固溶时间、时效温度及时间等对 LMD 成形 2A50 合金显微组织及力学性能的影响规律,分析了析出相的变化特点,获得了较优的热处理工艺。研究内容比较全面,研究手段先进,论文具有一定的创新性和实用性,查阅的相关文献比较齐全,论文结构合理,写作基本规范。,0,1,1,0,0,0,1,0,1,1,0,1,0,0 +1059,PET的有效降解和回收利用对于节约能源、环境保护和资源循环利用具有重要的意义,本论文采用双酸型离子液体作为催化剂催化PET的醇解,回收对苯二甲酸等高附加值产品;通过调变离子液体中的有机阳离子、烷基侧链的长度、路易斯酸中的金属离子,筛选性能优良的双酸型催化剂;考察催化剂用量、温度、时间等参数,优化催化工艺;获得了一些研究结果,也发表了一些文章。论文格式基本规范,逻辑性较好,文献引用基本合理,工作较为系统,表征手段较为齐全,分析讨论比较充分。但语言稍显粗糙,存在较多笔误和小错误,需要仔细修改。总的来说,基本达到了一名硕士生的基本要求,建议论文修改后参加答辩。,0,1,0,0,0,0,1,-1,1,0,0,0,0,0 +1237,本学位论文主要研究了纵向滑移的轮式移动机器人的轨迹跟踪控制,通过研究轮式机器人纵向滑移的运动学和动力学模型,设计了基于干扰观测器的鲁棒轨迹跟踪器以及反步轨迹跟踪控制器,解决了轮式机器人出现滑步情况下的轨迹控制。论文利用matlab仿真验证了轮式机器人基于控制器作用下出现纵向滑本学位论文主要研究了纵向滑移的轮式移动机器人的轨迹跟踪控制,通过研究轮式机器人纵向滑移的运动学和动力学模型,设计了基于干扰观测器的鲁棒轨迹跟踪器以及反步轨迹跟踪控制器,解决了轮式机器人出现滑步情况下的轨迹控制。论文利用matlab仿真验证了轮式机器人基于控制器作用下出现纵向滑移时的轨迹跟踪效果,验证了干扰观测器以及轨迹跟踪控制器控制效果。研究具有一定的学术意义,论文结构完整,目标明确,整体方案合理,并利用仿真验证了方案的可行性。图表数据清楚,实验结果正确。总之,本学位论文具有一定的学术意义。,0,0,0,0,0,0,1,0,1,0,1,1,0,0 +298,该文通过晶界添加MgO/Mg 纳米粉和采用二元合金法烧结成(PrNd)15.5B6Cu0.1FebalMgx(wt%,x=0.1-0.3)永磁体,分析了样品的结构、相貌、磁性和硬度及抗腐蚀性能等。发现随着MgO/Mg(质量比为1:2)纳米粉添加量的增加,磁体的磁性能先上升后下降,当MgO/Mg 纳米复合粉添加量为0.1wt%时,磁体综合性能表现最佳,晶界添加MgO/Mg 纳米复合粉可以提高烧结Nd-Fe-B 的抗腐蚀性。研究有一定的学术价值和实用意义,有一定的创新性,语言通顺,格式规范,基础知识掌握较为牢固。达到了硕士学位论文的要求。,0,1,0,0,1,0,1,1,0,0,0,1,1,0 +1958,论文主要开展多变量系统PID智能控制算法及泛化能力分析的研究,选题偏控制理论,与电气工程专业结合相对较弱。论文针对现有的多变量系统 PID 控制器在参数整定上的局限性,研究了智能控制的系统结构和控制特性,研究了基于神经网络的PID算法及泛化能力,介绍相关理论,单变量、多变量系统PID神经网络结构及解耦算法。针对多变量强耦合系统采用神经网络PID解耦控制算法的初始权值选择的问题,介绍了一种新型的麻雀搜索算法即学习型差分麻雀搜索算法(LDSSA),采用精英学习策略,在算法中选择当前迭代过程中的最优解并随机选取 2 个次优解来进行变异, 同时学习变异的策略融合了差分算法的思想,并将变异值替换为当前位置进行更新,通过三个测试函数进行试验,验证了改进算法的有效性。论文最后在一种新型的可控励磁直线磁悬浮电机上验证了本算法的有效性。 论文工作量一般,尽管结构清楚、规范性较好,但课题的意义和现状陈述一般,与专业的结合度较少,仅是最后一章介绍了本文研究方法在可控励磁直线磁悬浮电机上进行解耦控制的应用,仿真结果分析不足,导致可信度一般。 论文的研究工作表明作者具有一定的分析问题和解决问题的能力,有一定的从事科研工作的能力,论文修改后由导师决定是否可以答辩。,0,1,0,-1,0,1,1,-1,1,1,-1,0,0,0 +2408,创业板为中小企业的发展和高科技企业的技术创新提供了重要的融资平台。但是创业板上市时间较短,存在着高发行价、高市盈率、高超募率等“三高”问题,不利于投资者的投资选择和创业企业对本企业的合理评估。创业板企业具有高度的收益不确定性,无形资产比重大等特点,用传统评估方法对创业板企业进行评估有其不足之处。本文基于改进的实物期权法来评估创业企业,不管是从投资者还是企业、创业板的发展,都有其现实意义。作者对国内外相关文献材料进行了梳理,整体把握了相关领域研究现状,论文逻辑清晰,写作较规范,是一篇合格的硕士研究生学术论文。与作者商榷的地方:第一,论文第21页第四点里提到“因此,本文基于实际情况对传统B-S模型进行改进……”,得到(3-7)的模型。这个改进的B-S模型,经典文献本就有,因此提法“本文基于……对模型进行改进”不妥。从前文文献综述来看,未有人用改进的模型对创业板进行过估值,本文直接借鉴过来进行评估,是可以的。第一,第25页,通过对案例进行各方面能力分析后,得出结论案例公司处于发展平稳阶段,这与第19页分析实物期权的合理性里提到“……具有高度不确定性”,前后矛盾。希望前后逻辑一致。第31页用GDP增长率代表5年预测期后的增长率合理性没有阐述清楚。,0,0,1,0,0,0,1,0,1,0,0,0,0,0 +1790,论文以MQ 轮胎集团的财务共享服务中心作为研究对象,作者通过实地调研和访问的方式,并查阅公开资料,对其运营效果进行评价,并给出了具体改善建议。作者具有较强的分析能力和研究能力,对财务共享中心的流程、业务模式、框架结构、制度设计等方面都比较熟悉,对案例的介绍和分析比较到位,工作量饱满,能够将理论化的知识运用到实务分析之中,写作格式体例也比较规范,能够达到专业硕士毕业要求。,0,0,0,1,1,1,1,0,0,0,0,0,0,0 +1807,"论文以高拉速薄板坯连铸机为研究对象,建立了薄板坯连铸凝固传热三维模型,用ProCAST模拟软件模拟计算了薄板坯的凝固传热过程,初步得到了薄板坯连铸凝固传热的基本规律。在此基础上,对比研究了不同过热度、拉速和比水量对连铸坯温度场的影响,并初步分析了高拉速工艺条件下生产的铸坯质量,得出的主要结论如下: (1) 对铸坯断面尺寸为1000mm×90mm,钢水过热度为25℃时,拉速5.0 m/min的凝固传热过程,采用ProCAST 模拟软件和稳态计算方式,模拟计算了铸坯出结晶器时的坯壳厚度,铸坯表面温度分布以及铸坯凝固终点的位置。 (2)针对上述连铸工艺条件,对铸坯表面进行实际测温,修正了模拟计算中的传热参数,进一步提高了计算模型的准确性。 (3)对比研究了过热度(15 ℃,20 ℃,25 ℃,30 ℃和35 ℃)、拉速(4.0 m/min,4.5 m/min,5.0 m/min,5.5 m/min 和6.0 m/min)和二冷区比水量(0.9 L/kg,1.1 L/kg,1.3 L/kg,1.5 L/kg 以及1.7 L/kg)对连铸坯温度场以及凝固终点的影响。计算结果显示:过热度对铸坯凝固的作用较小,钢水过热度每升高5 ℃,铸坯的凝固终点后移0.24 m。拉速对铸坯凝固的影响很大,连铸机拉速每增加0.5 m/min,铸坯的凝固终点后移0.87 m。二冷水量对铸坯凝固的影响较大,二冷区比水量每升高0.1 L/kg,铸坯的凝固终点前移0.22 m。 (4)对不同拉速下(4.0 m/min,5.0 m/min,6.0m/min)薄板坯的质量进行了分析,发现铸机拉速越高,铸坯中心疏松缺陷的级别有所增大。 论文研究工作方案严谨、细致入微,论文工作文献总结很全面,工作量大,研究内容丰富,大量的实验数据和图表,分析合理有深度。论文写作文字通顺,图表规范,是一篇合格的硕士学位论文。",0,0,1,1,0,0,1,1,1,0,0,0,1,0 +1696,论文选取CAPM及其拓展模型在我国科创板适用性实证分析作为研究对象,将CAPM模型、F-F三因子模型以及BAPM模型在科创板市场中进行实证检验,力求找到更加适用于科创板市场的资产定价模型,其出发点是有一定意义的。然而,学界目前较为缺乏此类研究成果的原因之一就是科创板时限较短,实证分析的样本时间段过短,研究结果是否具有说服力还有待商榷。论文并未剖析模型构建与选取的内在原因,也没有落脚到对于科创板未来发展的现实层面,研究深度尚待加强。,0,1,0,0,0,0,0,0,0,0,-1,0,-1,0 +282,该生的论文选题紧密结合实际,具有一定现实意义,通过文献对供暖系统中应用模糊控制、预测控制、神经网络等策略有整体认识,对谷电供暖面临的问题及研究进展掌握较为完整和清晰。论文围绕谷电储热供暖系统的温度调节,在分析系统运行特性的基础上确定离散数学模型,并根据两种不同供暖方式和两种不同运行工况,利用采集数据进行了不同工况和对象下的控制策略设计及调整,最终实现前馈控制自适应调节,并通过仿真方式验证了算法的效果。 论文最后对供暖系统相关部分实现了PLC软件设计,并给出了基于PLC的模糊PID前馈补偿控制思路,实现了组态程序设计。 论文的原理分析论据可信,前后关系明确,整篇论文结构完整,层次清楚,条理分明,语言通顺流畅,具有较好的逻辑性和规范性。反映出作者在本学科方面具有一定理论、系统专业知识以及良好科研能力。,0,1,1,0,1,1,1,1,1,1,1,0,0,0 +1729,论文选题能结合企业生产实践进行研究,选题有一定的理论和现实意义。论文对国内外研究动态介绍不够深入,相关文献引用不足。所选课题难度一般,工作量适中。论文研究内容较合理,在研究方法方面创新性一般。论文研究内容较详实,数据真实,研究的成果有一定的应用价值,结果比较可信。论文撰写结构较合理,层次较清楚,语言较通顺,论文规范性有待提高。,0,1,-1,-1,0,0,-1,1,1,-1,1,1,0,0 +167,本文主要进行了控制平台的需求分析与详细设计,包括控制台软件的状态监控,患者管理,采集,配准,治疗主要功能,文中设计了全新的治疗逻辑,用以解决医院用户对于国外厂商治疗业务繁琐 、不便上手的需求 。本文还详细设计了DC中间件软件的状态监控,联锁处理主要功能,来满足用户与相关法规对于放疗设备安全新的需求。 本文选题有一定的实际意义,表明作者掌握了一定的专业知识,但是缺乏创新点,写作不太规范,有待改进。,0,1,0,0,1,0,-1,0,0,0,0,-1,0,0 +287,该生以《基于CNN 的双目立体视觉三维实时重建算法研究》为题,论文研究将卷积神经网络技术引入立体匹配算法对精度与速度进行提升,实现低成本三维实时重建。首先,采用张正友棋盘标定法对双目相机进行标定,然后,针对传统匹配算法精度低且耗时的问题,设计了基于卷积神经网络的匹配代价算法,最后,采用半全局匹配算法进行代价聚合、Winner-Take-All 策略寻找最优对应点,使用左右一致性检查算法解决因物体遮挡造成匹配点缺失的问题,并通过平滑滤波对视差图进一步优化,获得最终视差图。论文选题新颖,具有一定的创新性,结构严谨,层次分明,逻辑清晰,符合学术论文的写作规范。 因此,该生论文符合硕士论文答辩标准。,0,1,0,0,0,0,1,1,1,0,0,1,0,0 +796,在当今的世界中,技术侦查措施因具有技术性和隐蔽性的特点,在打击刑事犯罪方面发挥着越来越重要的作用。但是技术侦查措施同样具有易侵权性的特点,极有可能被滥用从而对公民的隐私权等合法权益造成损害。目前,世界上大多数国家都对本国的技术侦查措施进行严格的程序规制。我国现行立法也有相关技术侦查措施的规定,解决了对技术侦查的法律授权和解释问题。但是,其相关的程序规制依然存在着程序模糊、操作性不强和公民权利救济机制缺位的现象。因此,有必要借鉴和学习西方国家对程序规制的相关研究来更好的完善我国技术侦查措施程序规制的立法,以便技术侦查措施能在司法实践中更好地得到运用。该论文能够以此确定论文选题进行较为全面和系统的研究和阐述具有重要的理论和实践价值。在论文中,作者认为随着如今公民权利意识的普遍增强和对公民人权保障的呼声越来越强烈,要在我国《刑事诉讼法》已有技术侦查措施规定的基础之上进一步完善细化法律对技术侦查措施的规定,增强技术侦查措施在实践中的可操作性,使得技术侦查措施的权力运用更加的合理、程序更加的正当,最大限度的保障公民的权益,最大程度上遏制技术侦查措施的滥用。并且,该论文的写作,内容清晰、资料翔实、观点明确,符合硕士学位论文的写作要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +690,申请硕士学位论文《预应力自密实再生混凝土梁受弯性能试验研究》,以混凝土类型、非预应力筋配筋率、预应力筋根数、综合配筋指数、混凝土强度作为试验参数,以试验分析与理论研究相结合的手段,对应用粗骨料取代率为100%的自密实再生混凝土的预应力混凝土梁受弯性能进行了试验研究。论文依据预应力自密实再生混凝土梁张拉阶段的反拱,对弹性阶段刚度折减系数进行了修正,使其满足弹性阶段预应力自密实再生混凝土梁挠度计算。研究了预应力自密实再生混凝土梁受弯性能的破坏形态、破坏机理、裂缝开展情况以及与预应力普通混凝土梁的区别。研究了混凝土类型、非预应力筋配筋率、预应力筋根数、综合配筋指数及混凝土强度对预应力自密实再生混凝土梁开裂荷载、极限承载力、短期刚度和裂缝宽度的影响规律,验证了中国规范、美国规范及欧洲规范提供的开裂弯矩计算公式、极限承载力计算公式、短期刚度计算公式和最大裂缝宽度计算公式对预应力自密实再生混凝土梁的适用性。研究了混凝土类型、非预应力筋配筋率、预应力筋根数、综合配筋指数及混凝土强度对预应力自密实再生混凝土梁延性的影响规律。 论文有明确的研究背景,着眼学科前沿问题,目前有关再生混凝土、自密实混凝土的研究多限于材料和普通混凝土结构应用方面,在预应力混凝土结构的应用较少,尤其是预应力自密实再生混凝土结构,因此,该论文具有一定的理论意义和应用价值;论文研究意义明确,研究方法合理,有一定的创新性;研究内容有一定深度,论文工作量饱满;论文条理清晰,表达清楚,文笔流畅;书写格式及图表、文字、附件、文献应用符合规范。,0,1,0,1,0,0,1,1,1,1,0,1,1,0 +1931,论文针对南京实际 110kV 变电站进行了相关研究,应用 PSCAD 软件, 依据变电站实际运行图搭建了电源模块、 母线模块、 进出线模块、 负载模块、 三相变压器模块与电压互感器( 模块等仿真模型, 并根据实际铭牌值与仿真需求计算出了各个模块的参数值。 分别讨论模型在各个不同条件下产生铁磁谐振的情况:首先对 10kV 系统分别研究了在重合闸、 雷击、 两相短路接地、 单相断线故障下的情况,其次对 10kV 线路在单相接地故障下分别研究了加入电压互感器与只有变压器时产生铁磁谐振的情况, 并做了对比分析。 最后对 35kV 线路侧只有变压器时在发生单相接地故障的条件下研究了产生铁磁谐振所需满足的条件, 并对所得电压波形进行了傅里叶分析,得到了各次谐波含量。 分析了抑制铁磁谐振的方法, 即 PT 二次侧开口三角处并联电阻、 加装一次消谐装置、 4PT 法以及系统中性点经消弧线圈接地这四 种方法, 并对四种方法的消谐效果进行了对比分析。 最后研究了某地区由于发生铁磁谐振而产生事故的具体案例, 对事故发生过程、 原因进行了分析, 基于前文研究提出了解决方案。 经过研究发现只在单相接地故障情况下产生了铁磁谐振, 且在同等条件下电压互感器较变压器更易产生铁磁谐振。 仿真试验可知在只有变压器的情况下, 若线路参数满足一定条件, 单相接地故障下也能使得变压器铁心瞬间饱和, 产生铁磁谐振过电压。 试验证实了四种抑制措施均可有效抑制铁磁谐振, 并对事故案例提出了三种解决方案。 论文整体工作量略显不足,且未能形成有机整体,内容中有较多错误语句。研究多为验证性工作, 创新性不足。,0,0,0,-1,0,0,0,-1,-1,0,0,-1,0,0 +210,仿生算法在优化计算,人工智能发挥着越来越重要的作用。该研究生以“粒子群优化算法的改进和应用研究”为题作为硕士研究生的学位论文有意义。 该研究生学大量查阅了国内外粒子群优化算法的改进和应用研究的研究文献,并进行了较深入分析,研究方向明确,思路清晰。 该研究生研究成果主要有: 1. 提出了一种基于差分学习策略的改进粒子群优化算法。 2. 提出了一种新的位置更新策略,加强种群中较差粒子对种群搜寻的贡献。 3. 将自然选择的学习型差分粒子群优化算法,运用于磁悬浮进给系统的电机参数辨识。 该研究生的学位论文内容较丰富,语言较流畅,逻辑性较强,结构较合理,学科知识掌握得较扎实。学位论文达到了我国高校研究生论文的基本要求。,0,1,1,1,1,0,1,1,1,0,0,0,0,0 +1523,开绕组电机驱动技术赋予了永磁电机更多的控制维度,通过主逆变器及次级逆变器的协作控制,可以在不改变电机设计难度的前提下实现驱动系统更好的控制性能。论文针对开绕组永磁同步电动机的控制技术,在分析和掌握该科学领域成果及前沿动态基础上,开展了 OWPMSM 系统单位功率运行、弱磁控制策略和容错控制等研究工作,该篇论文的主要工作和学术贡献有: 1) 论文搭建了OWPMSM数学模型,基于Matlab/Simulink软件对OWPMSM 单位功率因数运行及弱磁控制仿真分析。 2) 论文针对OWPMSM 容错控制问题开展了策略研究工作,完成了 OWPMSM 容错控制系统数学建模及容错控制仿真分析。 3) 论文搭建了开绕组永磁同步电动机控制系统实验平台,设计了开绕组永磁同步电动 机控制系统的硬件及软件,进行了软件及硬件的调试工作。 论文研究工作表明作者已基本掌握本专业的专业知识,能用相关学科的技术、方法解决科研工作中的实际问题。该论文已基本达到硕士学位论文的水平,建议按照修改意见进行修改完善后进行硕士学位论文答辩。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +705,硕士学位论文《基于价值工程的BR 污水处理项目管理优化研究》对BR石化有限公司的污水处理项目进行了分析,选题基本符合项目管理专业要求。论文以BR 污水处理系统生化、臭氧氧化单元为价值工程管理优化对象,通过污水处理单元功能系数的技术手段,试图提出优化方案,通过功能的调整和改进成功降低污水处理系统的投资、运营成本。论文形式基本规范,有一定的结果,基本可以参加答辩。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +29,1.该论文选题具有现实意义;医药市场的生态哲学解析是从生态哲学视角下分析医药市场的问题。该论文从国内外医药市场的相关问题进行文献梳理,从中分析医药市场的相关问题。 2.该论文的学术意义有待进一步提升;该论文的学科知识掌握一般; 3.该论文符合硕士论文的写作规范,论文的逻辑性较强; 4.该论文的学术水平有待提升。,0,1,0,0,-1,0,0,0,1,0,0,0,0,0 +2106,优良的转矩性能是永磁力矩电机的重要研究目标。针对机器人关节核心部件对转矩密度和转矩波动并行改善的要求,论文从多极磁环的充磁技术分析入手,揭示出磁化夹具参数的影响规律,确定多极磁环的合理充磁方式,进而开展永磁力矩电机电磁方案的优化研究,完成样机的设计和测试等工作。论文在理论分析的基础上,分别仿真开展和实验研究,互为验证,论据充分,整体布局合理,内容较为充实,所完成的研究工作对永磁电机领域的研究人员具有较好的借鉴意义。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +971,思维品质作为基本学科素养的重要性不言而喻。教师课堂提问是培养学生思维品质的手段之一,本研究聚焦高中英语阅读教学中教师课堂提问的认知层级现状,借助课堂观察、问卷、访谈等研究方法,调查高中学生的思维品质水平以及教师课堂提问认知层级的现状及存在问题,分析其影响因素,并提出可行性优化建议。研究结果显示大部分教师有培养学生思维品质的意识,但课堂提问的认知层级局限在低阶思维品质培养方面,对高阶思维关注不够。影响这一现状的主要因素包括教师对思维品质培养的态度、对认知层级的意识及掌握水平情况等。本研究的选题符合教育硕士专业学位培养目标和基本要求,具有一定的实践价值。研究目标比较明确,研究方案相对可行,分析论证有基本的条理性,论文结构符合要求,数据呈现比较规范,表达基本流畅。基本达到毕业论文规定的要求和水平,同意参加答辩。,0,1,0,0,0,0,1,1,1,1,0,0,0,0 +587,论文在查阅文献资料的基础上,综述了风电不确定性和风电储能混合系统协调优化的研究现状。在此基础上,开展了以下的研究工作: 1、分析了风电储能混合系统工作原理,建立了蓄电池出力模型;进一步针对风电的不确定性问题,分别研究了基于核岭回归(KRR)的风速预测模型和基于支持向量机(SVR)的风电功率预测模型;并通过模型预测误差说明了在风电储能混合系统协调优化时需减少风电不确定性的影响; 2、考虑风电的不确定性,以弃风量最小为目标函数,建立了风电储能混合系统的鲁棒优化模型;通过引入有效目标函数并简化其计算,将改进后的A-RQREA算法用于风电储能混合系统的鲁棒优化求解;算例分析结果表明:本文的优化算法可使风电储能混合系统明显降低负荷峰谷差、达到消纳弃风的目的。 论文工作表明作者具有较扎实的控制理论基础和专业知识,有较强的科研工作能力;论文表达清楚、叙述正确,是一篇理论联系实际的论文,达到硕士学位论文要求,同意组织答辩。,0,0,0,0,1,1,0,1,0,0,0,0,0,0 +1463,该文针对油动力多旋翼发电机并联电源系统的控制展开研究,论文目的明确,具有实用价值。国内外现状引用文献真实、贴切、规范、新颖。该文针对油动力多旋翼发电机并联电源系统特点总结的技术问题进行发电控制策略的研究。首先建立了单个模块的功率闭环的发电功率控制系统模型,在系统功率闭环的基础上对负载扰动和转速扰动的发电功率解耦方式进行了研究,同时,对于直流并联电源系统的功率均衡控制方法进行了研究。然后对于系统存在的技术问题设计了对应的控制策略,对控制策略进行了模拟不同工况的仿真以验证其可行性。最后在软件控制策略设计的基础上设计了硬件电路,并进行实物试验对该多机并联的电源系统及其控制策略进行了实物验证。研究内容明确,方案合理,依据可靠,合理运用了基本理论及专业知识,研究方法科学、合理、可行,技术手段实用,写作规范,具有系统性与逻辑性,工作量饱满。符合硕士学位论文的要求,同意答辩。,0,1,1,1,1,0,1,0,1,1,0,0,0,0 +226,该论文的选题具有重要的理论研究意义和实践应用参考价值。 该论文在对国内外相关文献进行综述的基础上,采用文献研究法、案例研究、因子分析法等研究方法,对借壳上市前利用股权转让完成了股权结构调整和债务结构优化的问题进行了剖析,并对案例企业贝瑞和康利用并购基金降低融资风险问题进行了案例分析。该论文研究了对赌协议在降低业绩承诺和业绩补偿风险以及估值风险上的作用,并基于因子分析法对贝瑞和康借壳上市前后在同行业的综合排名情况进行对比分析,并做出绩效评价。从而为后续企业通过借壳上市实现战略式发展提供了操作层面上的借鉴和参考。 。 该论文所提出的关于,对新规下借壳上市前应如何进行准备以及在借壳上市中的风险如何合理规避等提出的对策性建议方面具有一定新意。 该论文作者较好的掌握了会计学科知识,论文结构合理,层次清晰,资料详实,写作规范,论述具有条理性,观点明确,论据充分。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +2667,论文开展自动变速箱电磁阀检测系统研究,对自动变速箱电磁阀进行检测有助于其故障诊断与判别,因此选题具有理论意义和实用价值。论文对电磁阀输出端压力的检测、调节与控制进行了研究,并给出了实验结果和结论,论文研究水平基本上达到了专业硕士学位论文要求。论文在文献综述、组织结构、文字表述、图表设计等方面还存在诸多不足,具体包括:(1)卡尔曼滤波采集信号的过程没有说明清楚,A,B矩阵具体怎样?观测方程在哪?基于此,对后续的信号滤波结果表示怀疑。(2)很多作图不规范。例如,图2-24等图看不出是压力调节阀输出端压力随电流变化情况。(X坐标根本不是电流),导致文字描述与图对应不上。图2-26看不出是压力调节阀输出端压力随温度变化情况。图2-31存在相似问题。有的图X坐标是采样点,但标题是XXX随时间变化,不一致。(3)中文摘要表述缺少学术性,太口语化;英文摘要翻译不准确。(4)研究背景与研究现状分析不够深入。研究现状还应从“研究”的角度进行综述。(5)文中说当调节阀输入端压力为0.9Mpa时,输出端压力波动相对较小,采集稳定。得出此结论的依据在哪?没有数据分析与支撑,就给出结论,缺乏说服力。(6)图2-25的第一组、第二组、第三组数据如何得到,文中根本没有描述清楚。(7)图4-9不严谨,当进化代数达到最大时程序去哪执行?,0,1,-1,0,0,0,-1,-1,-1,0,0,0,0,0 +1358,该论文以黄鹤楼隧道段为背景,研究了隧道施工参数和地层参数对地层位移和衬砌受力变形的影响;同时研究了间隙参数、岩石力学特性、隧道地层参数下的围岩-衬砌作用机制,探讨了地层收敛变形模式。论文选题具有一定的实用价值,研究内容丰富,数据分析充分,工作量符合要求,论文结构合理,写作规范,图文并茂,研究结果为隧道安全施工提供了参考。达到了硕士论文要求,同意按期答辩。,0,1,0,1,0,0,1,0,1,0,1,0,0,0 +1690,论文围绕高速永磁同步电动机控制开展研究,选题具有较高的应用背景及学术研究价值。作者针对其控制方案、无位置传感器检测方案进行了研究,并基于MATLAB搭建了仿真模型,对选用或设计的控制方案进行了必要的仿真分析及对比研究,论文工作具有一定的学术意义。论文整体工作内容达到硕士学位论文工作要求,论文书写规范,语言较通顺。同意该生参加硕士论文答辩。,0,0,0,0,0,0,1,1,0,0,0,0,0,0 +1256,电工钢材料引起的铁心磁致伸缩效应也是变压器本体振动噪声主要来源之一,论文针对当前研究主要是标准交变磁化下单片特性的测试与模拟、而缺乏对对叠片铁心磁致伸缩特性开展深入细致的研究,进而开展了非标准磁化下取向电工钢片及叠片结构磁致伸缩特性的研究。为实现非标准磁化下叠片铁心磁致伸缩特性的精细化模拟,提高变压器等电工装备产品的电磁振动噪声预估精度,论文从叠片铁心磁致伸缩特性测试方法的提出与测试平台的搭建、非标准磁化下磁致伸缩特性表征模型的建立、结合磁致伸缩模型的变压器铁心应变数值计算等三个方面展开研究工作。主要内容包括四个部分:(1)非标准磁化下单片取向电工钢片磁致伸缩特性的测试与分析;(2)电工钢片叠片结构局部磁致伸缩特性研究;(3)电工钢片叠片结构磁致伸缩特性表征方法研究;(4)结合磁致伸缩特性表征模型的干式变压器铁心应变特性仿真计算。 总体而言,论文写作规范,逻辑性强,结构层次清晰,文字表达通畅;虽然文中还存在一些不足,从论文可以看出,作者已经掌握了本专业扎实的基础理论和操作技能,能够站在该领域前沿,对本课题范围内的发展动向和主要文献资料有了清晰的认识;论文结构设计严谨,测试方法先进,模型可靠,数据可信,基本达到了博士学位论文的要求,建议作为学位论文安排答辩。,0,0,1,0,1,1,1,1,1,1,0,0,0,0 +910,该论文选取日本历史文本《天下泰平的时代》(第二章)为翻译文本,以奈达的“功能对等理论”为指导,在翻译实践中从词汇翻译、句法翻译两个方面对翻译文本具体实例进行了分析。通过词性转换、增译、省译等翻译策略,作者对原文本的文化负载词、词性等进行操作,加注历史文化相关知识,以实现译文对原文本的功能对等。该翻译实践报告选题来源于语言文化翻译实践,体现了翻译实践报告的研究特色,符合专业特点。纵观全文,该翻译实践报告研究思路清晰,文献综述也较清晰。并能够资料运用合理得当,结构合理、层次分明,行文比较流畅,但是运用相关理论知识进行分析论证尚感不足,不够深入。,0,1,1,0,0,0,0,1,1,0,0,0,-1,0 +1578,论文的选题来源于实际应用需要,具有较高的研究意义和实用价值。论文基本完成了以下工作,基于现有油田场景,设计面向工业无线仪表的节能方法,并实现了油田工业监测系统的简易原型。论文主要完成了以下研究工作:(1)混合节点部署的问题分析和优化研究;(2)混合节点异构组网的问题分析和优化研究 (3)结合云平台完成了业务管理软件的开发工作。论文完成的研究工作量比较饱满,有一定的创新性。 作者综合运用基础理论、专业知识和技术手段分析和解决问题的能力较好,论文的条理清晰,层次分明,格式规范,研究工作有一定的技术难度。结合作者所完成的研究工作,同意论文修改后参加答辩。,0,1,0,1,0,0,0,0,0,0,0,1,0,0 +720,碳纤维增强铝基复合材料(Cf/Al)因比强度、比模量高、设计性强、热力学性能好等优点,成为各领域重点关注的新型材料。目前制备出的一维Cf/Al复合材料,应用过于单一。二维层状Cf/Al复合材料由于其组织性能优良同时又可以满足多方向受载,成为当下的研究热点。本论文采用真空超声振动法制备层状Cf/Al复合材料,设计层状碳纤维预制体和预制体预热装置,并通过模拟和试验优化层状Cf/Al复合材料的工艺参数,找到使得层状Cf/Al复合材料组织和力学性能最佳时的纤维束排布间距,研究成果具有重要的科学意义和应用价值。 本论文主要从三方面开展工作: (1)层状Cf/Al复合材料中碳纤维预制体及预制体预热试验装置的设计; (2)超声振头与纤维层距离对单层Cf/Al复合材料影响的研究; (3)纤维束不同排布间距对双层Cf/Al复合材料影响的研究。 总体来看,论文选题新颖,表征全面,具有一定的创新性,选题具有重要的意义。论文思路清晰,论证充分,撰写规范,体现出作者具有独立从事科学研究的能力,且具有比较扎实的理论基础与系统的专门知识。本论文达到了硕士研究生学位论文的要求。,0,1,0,0,1,1,1,1,0,0,1,1,0,0 +1374,该论文针对变压器局部放电在线检测信号处理和定位方法进行了研究。针对超声波信号存在噪声干扰的问题,通过分析信号和局部放电信号的特性,提出一种分层去噪模型,并通过仿真验证了分层去噪模型的有效性。针对变压器中局部放电源的定位问题,提出一种改进的人工蜂群算法,定位结果更加精确,迭代收敛速度更快。论文研究内容较充实,研究方向具有一定工程应用价值。,0,1,0,1,0,0,0,0,0,0,1,0,0,0 +1517,近年来增量配电网的建设逐步深入,其涉及多元主体,设备类型多样,如何实现资源最优配置和收益最优分配是当前建设中的面临的主要问题。论文选题具有理论价值和实用意义。 作者在阅读了大量文献的基础上,主要完成了以下工作: 1、 分析了IDN 网架结构及运营模式; 2、 分析 DG 投资运营商及 EV 用户收益模型和电网公司收益模型,研究了EV加入IDN 经济规划方法; 3、 研究了基于敏感性分析的IDN 规划方法,采用层次分析法分析各类敏感参数对 IDN 规划 LCC 的影响程度和权重系数,从而进一步对IDN 规划优化。 论文研究目标比较明确,写作比较规范,工作量较为饱满,符合硕士论文的研究和写作要求。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +563,论文以华友钴业公司为研究对象,采用企业自由现金流量的企业价值评估方法和基于实物期权蒙特卡罗模拟模型的企业价值评估方法分别对华友钴业公司进行价值评估,然后分析和总结影响企业价值提升的因素,并根据这些因素提出价值提升策略,以期实现企业价值的最大化。总体来说,论文选题具有一定的实践意义,论文结构也比较合理,格式较为规范,数据详实,工作量饱满,体现了作者掌握了相关专业知识。,0,1,0,1,1,0,1,0,1,0,0,0,0,0 +457,论文是国家自然科学基金资助项目,基金名称:“可控励磁直线同步电动机磁悬浮进给平台运行机理与控制策略研究(项目批准号:51575363)”,选题具有一定的意义,写作较为规范,且具有一定逻辑性;但是该论文研究无创新点,学科知识掌握不足,与他人毕业论文存在超高雷同,无法分析论文的具体学术水平;论文未对所提伸缩因子进行详细展开研究,未进行真正台架设计和研究。 结论:论文未达到硕士论文要求,不同意答辩。,0,1,0,0,-1,0,1,0,1,0,0,-1,0,0 +1943,论文针对永磁同步电机转矩脉动优化设计及谐波特性进行了研究,论文选题具有较好的理论价值和现实意义。 论文研究了改进的永磁同步电机数学模型,利用冻结磁导率方法分析各项转矩谐波,以此得到电机的永磁转矩和磁阻转矩。通过J-Mag仿真软件,针对一台1.5KW12槽10极电机进行设计,选用“一”型磁钢转子,优化了转子磁钢宽度、隔磁槽形状、磁桥长度等三个参数,并得到了基于模型的转矩谐波特性,并分析了不同负载情况下的转矩脉动变化,仿真和结果表明研究算法的正确性。 论文工作量饱满,表明作者具有一定的理论基础和科研能力,论文语言文字流利通畅,撰写格式规范,立题正确,层次清楚,具有一定的学术性和应用性。,0,1,0,1,1,1,1,1,1,0,1,0,0,0 +2774,论文选题切合市场需求,逻辑较为严谨,思路比较清晰,方法选择较适当,论证较为充分,有一定的思考和创新,达到了硕士毕业论文的要求,同意修改后参加答辩。论文还有以下不足,供作者参考。1、创新点分条阐述,其中方法的对比分析是否属于创新点,值得思考;2、仔细检查论文内容,注意格式;3、盈利状况可展开介绍,说明其存在超额收益的具体依据;4、预期收益期限为5年的依据,超额收益的收益期为何不更长;5、评估过程前应该强调说明评估基准日的确定;6、研究结论、研究不足的归纳,应分开阐述。,0,1,0,0,0,0,-1,0,1,0,-1,0,0,0 +215,该毕业论文采用概念分析法和比较研究法就侵犯网络著作权的法律责任进行了宏观和微观(主要是宏观)的系统研究。首先,通过对网络作品及侵犯网络著作权的法律责任相关概念的解读,为侵犯网络著作权的法律责任研究进行理论铺垫;其次,立足我国现有相关法律规范的研究,分析其在民事责任、行政责任、刑事责任三个方面分别存在的问题;再次,分析国外网络著作权侵权犯罪的法律责任规定,依次对著作权集体管理制度模式、行政执法制度设计、刑事责任制度对于有关技术措施保护的规定进行比较法研究,分析其启示及可供借鉴之处;最后,针对我国网络著作权侵犯罪的三种法律责任相关规范的疏漏与不足,分别提出具体建议。纵观全文,选题有重要意义,思路基本清晰,结构设计合理,层次分明,论据资料比较充分,有逻辑论证,观点基本明确,结论有创新努力,表述基本流畅,是合格的硕士学位论文。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +2866,论文以银行不良资产为研究对象,选择实际评估案例为改进方法的应用对象,对银行不良资产评估问题展开分析研究,以假设清算法为基础研究方法,进行适当的改进。论文选题具有较强的专业性,写作框架设计合理,文献引用适当,研究对象的选择具有一定的代表性,对问题的分析也比较到位,建议措施基本可行。表明作者在本领域已掌握较坚实的基础理论和宽广的专业知识、具有较强的解决实际问题的能力、具有良好的职业素养。文字、图、表等符合规范。论文基本达到硕士学位论文水平。修改建议:1、摘要第二段,应为介绍本文的研究内容,不宜用首先来开头,其次、然后、最后这样的词也最好不要出现在摘要中,直接介绍本文的研究内容即可,摘要就是要简明扼要地介绍本文的主要内容和研究成果,尽量避免啰嗦。2、正文第1页第二段段首空格多空了一个字符的位置。3、研究意义下面,先写理论意义后写现实意义。不需要过多地介绍背景,尽量准确概括总结本文的理论意义和现实意义,因为背景大部分都在研究背景中已经交代,没必要重复介绍。4、第3页,研究内容,下面应该先用一段话来概括介绍本文的研究内容,然后再介绍各部分的内容。5、第6页,三、可能的创新之处,尽量准确概括提炼本文可能的创新之处,如有多点就用子标题分别列示。,0,0,0,0,1,1,1,0,0,0,0,0,0,0 +659,论文作者查阅了有关船用高强钢焊接、激光-电弧复合焊接研究的国内外文献资料并进行了归纳总结,了解该领域研究动态,论文选题具有较好的科学意义与工程应用价值。 EH36为我国造船业常用钢,采用传统焊接方法焊接时,被焊母材正反面易产生未熔合、咬边以及焊瘤等缺陷及焊接效率低等问题。论文作者选择14mm 厚的EH36 钢进行了激光-电弧复合焊接工艺进行优化和对其组织性能进行研究,具有一定创新性,取得主要研究结果如下: (1)利用光纤激光-MAG 复合焊接的方法成功实现了14mm 板厚EH36 船用高强钢的单道一次焊透的优良焊接接头; (2)焊接最佳工艺参数(激光引导电弧的方式)为激光输出功率7kW、焊接电压27.4V、焊接电流298A、焊接速度1m/min、离焦量0mm、光丝间距3mm、保护气体体积分数为20%CO2+80%Ar、气体流量20L/min ; (3)焊缝和母材金属相主要由α-Fe 固溶体组成;焊缝金属的显微组织由多量马氏体、少量贝氏体及微量铁素体组成,焊接热影响区(HAZ)组织以板条状马氏体为主、贝氏体为辅,与焊缝金属相比,HAZ 过热区的马氏体量更多和尺寸更大;焊缝金属的硬度高于母材,激光作用区焊缝金属硬度高于电弧作用区焊缝金属硬度,激光作用区HAZ 硬度低于电弧作用区HAZ 硬度;常温下焊接接头平均抗拉强度为569.4Mpa、平均屈服强度为422.25Mpa、延伸率为21%、断面收缩率为49%,拉伸试样的断裂位置在母材金属,拉伸试样断口上布满韧窝,属于塑性断口形貌; (4)在对焊缝进行横向侧弯180°后,在被拉伸的表面上没有产生裂纹;焊缝金属和HAZ 金属在室温下的平均冲击功分别为92J 和88J,分别约为母材的95%和91%;焊缝冲击试样的断面(中间部分)属于准解理断口形貌; (5)静态失重试验、腐蚀形貌和电化学腐蚀试验观察发现焊接接头耐蚀性优于母材,试验性能指标均优于船级社的技术指标要求。 论文研究方法合理,数据分析及处理规范,分析论证有理,结论合理。 论文内容充实,结构合理,层次分明,书写规范。 论文表明作者具有较好的本学科领域理论基础知识和专业技能,具有一定独立从事科学研究与技术工作的能力。 该论文已达到硕士研究生毕业论文水平。,0,1,0,0,1,1,1,0,1,1,0,1,0,0 +2908,论文针对无人驾驶车辆路径跟踪的精度进行了研究,建立了不同行驶工况条件下的路径跟踪策略。首先,建立了车辆动力学模型,然后,针对宽速度变化范围及复杂路况下无人驾驶车辆路径跟踪控制适应性问题,构建基于车辆误差状态空间方程的模型预测控制器;针对超高速复杂条件下无人驾驶车辆保速过弯过程中难以同时保证跟踪精度和行驶稳定性的问题,建立了考虑车辆轮胎侧滑以及道路曲率的误差车辆模型;针对无人驾驶车辆路径跟踪预瞄控制过程中跟踪精度受预瞄时间影响较大的问题,建立了前轮转向角与预瞄时间的关系,形成一种新的方向控制驾驶员模型等;论文选题有一定的学科前沿性,具有较强的理论意义和应用价值。作者对本学科领域的知识掌握比较全面,文献引用科学合理,研究工作取得了较好的理论成果。存在的主要问题有:1.论文的文字表述有时不够严谨。如摘要中的(1)“并推导出车辆误差模型”?这话表述有些模糊;2.论文图表整体不规范。如P8-9的图2-1中参数标注与公式(2-3)对应关系不清晰,表2-1中有2个A0参数?P12图2-2的标注不清晰,P15图3-2不规范,且信号综合处没有标极性,后续各章节的波形图非常细小不清晰等等;3.P11的公式(2-15)中最后一项dot(Ψ1)是如何定义的?建议:请作者针对上述问题进行后答辩,0,1,1,0,1,0,0,0,-1,0,0,0,0,0 +2537,该文从真实的甲状腺检查报告出发,以辅助临床医生对甲状腺结节良恶鉴别为目标,分析了甲状腺超声文本数据情况,提供了文本中信息提取的方法与步骤,探究了机器学习的甲状腺癌症辅助诊断方法,初步设计了甲状腺癌症的智能精准诊断系统。从不规范的甲状腺超声文本报告中精准高效地提取结构化的有价值的数据,并通过机器学习方法学习影像学医师的专业知识和病理科的临床诊疗经验,做到辅助临床医生,提高对甲状腺癌的诊断准确率与提高甲状腺癌的治愈率。研究意义较突出,选择方法合理,论证充分。然而,文本信息提取有待进一步优化;甲状腺癌症诊断系统的可操作性,科学性需要进一步论证。,0,0,0,0,0,0,0,0,0,1,0,1,0,0 +7,“社会责任表现、经营风险与权益资本成本关系的实证研究”一文从描述企业承担的社会责任入手,较为系统而全面地阐述了企业的社会责任表现、经营风险与权益资本的关系,其选题具有重要的理论与现实意义。论文结构合理、论证较为充分,文字表达流畅,论文的文献掌握较好,能够通过文献梳理提出需要研究的主要问题;论文研究方法得当、研究结论明确,具有一定的创新性。,0,1,1,0,0,0,1,1,0,1,1,1,0,0 +604,论文针对大型风电机组功率与载荷协同控制策略进行研究,选题具有应用价值。  论文所做的主要工作体现在:1. 建立了风速、风轮、传动链和发电机的数学模型,为控制策略的研究与仿真分析奠定基础;2. 针对发电机控制过程依赖风速实时测量的问题,给出了一种基于无传感器的改进最佳叶尖速比控制方法。  论文结构基本合理,论述基本正确。论文工作表明作者已经基本掌握了本学科理论的基础理论知识和专业,具有一定独立从事科学研究的能力,基本达到了硕士学位研究生的水平。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +1796,论文以冲压机电机轴承为研究对象,以故障诊断与寿命预测方法为手段,对冲压机电机轴承的健康状态进行了研究。选题具有较好的科学性与工程应用前景。在研究过程中,论文使用奇异值分解的方法对采集到的轴承振动信号进行去噪处理,采用蝴蝶优化算法获取变分模态分解中的最佳参数组合,并对去噪后的信号进行VMD分解,依据峭度值选取原则来选取分解得到的k个模态分量(IMF)中有效的模态分量来进行包络谱分析,进而确定轴承故障类型。论文采用了基于卷积门控注意力机制(CNN-GRU-Attention)的网络模型对轴承剩余寿命进行预测,并通过试验分析与模型对比,验证了CNN-GRU-Attention预测模型的有效性。总体来看,论文思路较清晰,语句较流畅,工作量达到要求,但存在一定不足,需进一步提高,具体意见“论文的不足之处和建议”。,0,1,0,1,0,0,0,1,1,0,0,0,0,0 +123,本文通过对多频同步激励下磁感应检测技术的研究,设计了一套油品质量评估系统。 论文选题有较大实用价值;阅读资料较广泛,掌握了相关的国内外研究动态,研究方向明确。 研究成果有一定实用价值,通过理论推导、仿真计算和实验,对磁感应检测方法做了有效的工作。 论文写作条理清楚,文字表达能力较强。从文中可以看出:笔者有较强的从事科学研究的能力,掌握了课题相关的专业理论知识。,0,1,1,0,1,1,0,1,0,0,1,0,0,0 +551,论文以330kV牵引供电系统用电流互感器暂态冲击电压为主题,主要从电流互感器绝缘材料频域介电参数测量实验、电流互感器和牵引供电系统建模及仿真实验、以及电流互感器暂态冲击电压特性等方面进行了较为深入研究;并通过仿真实验分析了动车组在不同位置起动、动车组改变运行工况、以及动车组通过电分相过程中对电流互感器产生的冲击电压影响问题。 论文选题结合实际,符合学科发展方向,具有理论意义和实用价值。 从论文研究可看出,作者了解相关研究领域中的国内外研究动态和发展趋势,研究过程思路清楚,方法科学,分析论证基本合理,反映了作者已掌握了本学科基础理论和专门知识,也体现作者具有的较好的从事科研工作的能力。 论文写作认真,条理清楚,语句流畅,图表格式规范,实验结果真实可信。,0,1,0,0,1,1,1,0,1,1,1,0,0,0 +2647,论文基于混合次分数Black-Scholes模型、混合次分数Black-Scholes模型和神经网络组合模型,分别研究欧式期权定价问题。针对葛洲认沽权证CWB1数据,进行实证计算。论文选题符合专业要求,具有一定的应用价值,研究方法有一定的创新性。论文写作较规范,结构合理,图表符合要求,语言较顺畅。论文整体达到了硕士学位论文的要求。建议在数值分析部分,详细描述具体步骤和过程,与论文前几章相呼应,并对结果进行分析。,0,1,0,0,0,0,1,1,1,1,0,0,0,0 +2547,该文研究了基于深度学习的司机驾驶行为识别问题,选题具有明确的工程应用背景,也有一定的技术难度。论文对图像识别、驾驶行为识别等方面的国内外研究现状进行了总结分析,作者对本学科领域的发展概况有一定掌握。论文基于通道注意力机制改进了驾驶行为识别模型,引入了坐标注意力机制,使用深度可分离卷积技术对驾驶行为识别模型进行了轻量化,相关研究具有一定的技术先进性和创新性。从论文写作来看,作者能够综合运用所在领域的科学理论和方法解决驾驶行为识别方面的问题,专业知识相对扎实,研究方法和技能掌握较好。论文写作相对规范,逻辑严谨、文字较通顺,结构合理,数据翔实。综上,该论文已达到硕士学位论文水平要求,同意修改后参加答辩。论文存在的问题及不足之处:1、摘要中缺少研究动机的描述。各章节的引言也多少存在类似问题。2、国内外研究现状仅梳理了20篇左右文献,需要进一步加强调研。3、硕士论文各章内容应该是一个有机整体,各章之间的关联性应明确,建议在1.3章节中用框图说明。4、章节3.3.3实验结果与分析中,关键性能指标主要考虑了准确率,建议用多个指标来评判。另外,论文未进行交叉实验,如何保证算法的鲁棒性?5、参考文献格式不统一。,0,1,-1,0,1,0,1,1,1,0,0,0,0,0 +1315,该论文通过对根据钢筋笼套环供料及装配的工艺流程现状和存在问题进行分析,研究设计了桁架机械手及套环卡具的总体方案,并对末端夹持器机械机构进行设计。使用LabVIEW图形编程工具与STM32单片机机设计自动控制系统,并通过仿真与 PD 型迭代学习算法比较,得到了一种精度更高、收敛速度更快的迭代控制算法来控制直角坐标机器人。论文思路较为清晰,具有一定的工程应用意义。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +469,论文围绕基于软测量技术的油井动液面测量方法开展研究,实现动液面的在线实时测量,论文选题合理,对于现场采油系统的优化控制有着重要意义。作者在参阅相关文献的基础上,主要完成了如下研究工作。提出了基于相似因子分析的多工况识别算法,克服了传统聚类方法容易受到生产波动和异常数据的影响,造成数据分类不准确、部分工况发生误判的问题,为建立不同工况下的动液面软测量模型提供了准确的建模样本数据。给出了一种基于改进AdaBoost 算法的动液面软测量静态建模方法,可减少由于样本个体误差大而对模型整体预测精度产生的影响,使得模型的泛化能力。提出了基于模糊评估的油井动液面自适应软测量建模方法,建立了关于产液量变化趋势推理的模糊专家系统,提高软测量输出模型对油田动态生产过程的适应性。论文撰写规范,内容完整,结构合理,表述清晰,表明作者具有较好的理论基础和专业知识,论文达到了硕士学位论文的要求,同意进行答辩。,0,0,0,0,1,0,1,1,0,0,0,0,0,0 +2999,"一、结构和内容方面:第三章介绍语篇类型,只有informativetext与翻译实践报告相关,其余两种expressivetext和operativetext没有必要用太多篇幅介绍。二、表达不严密规范。汉语中的字、词语概念与英语中的“word”不对应。如:Afterconsultingthedictionary,inChinese,theword“相”of“相对”isregardedasanadverb,andtheword“对”isregardedasanadjective,whichisusedasanadjectiveasawhole.However,whentranslatingthiswordintoEnglish,thepartofspeechhaschanged…(23页)InChinesesentences,exceptfortheintuitiveandobviousword“被”canexpresspassivity,thereareotherpassivewordssuchas“为”、“由”、“使”、“以”、“受”and“于”andsoon,whichcanalsoexpresspassivemeaning.(31页)三、语言表达有错误。如:manypassivevoicesisusedinscientificandtechnologicaltexts(Zhao,2006).四、参考文献中英文作者姓名罗列不一致,不规范。综上,论文基本达到硕士学位论文水平,同意修改后参加答辩。",0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +1549,论文《冲击激励下带限位器双层隔离系统建模及试验研究》以带限位器双层隔离系统为研究对象,以带限位器单层隔离系统为对比对象,对双层系统的抗冲击性能进行了研究。 论文的主要工作和研究成果如下: (1)限位器对双层隔离系统的位移限制效果要优于单层隔离系统,且单层隔离系统有可能导致加速度的激增,而双层隔离系统能够较好的平衡位移的减小与加速度的增大; (2)相对位移幅值随安装间隙的增大近似线性增大;单层系统中加速度先增大后减小,呈现倒“V”型变化规律,而在双层系统中,加速度先增大后减小,再增大后减小,呈现“M”型变化规律 (3)限位器刚度达到一定值后,相对位移相较于单层系统更容易被限制在一定范围内,继续增大刚度对位移的限制效果不明显,加速度响应却继续增大; (4)选择合适的限位器阻尼能够达到同时减小相对位移和加速度的效果,最优阻 尼比出现在 0.2-0.5 之间; (5)为验证冲击仿真模型的正确性和准确性,设计并加工了带限位功能的双层隔离系统试验模型。 论文结构完整、理论严谨、思路清晰、逻辑性强、工作量充足,并具有一定的创新性。文章格式符合学术规范,表明作者掌握了扎实的基础理论和系统深入的专门知识,具有独立从事本专业专门技术工作的能力,达到了工学硕士学位论文要求。,0,0,0,1,1,1,1,0,1,0,0,1,0,0 +1249,磁粒子成像是国际上的研究热点,论文研究感应式磁性纳米粒子检测方法,选题具有重要的理论意义和实用价值。 论文作者在大量阅读中外文献的基础上,开展了如下创新性的研究工作: (1)建立了一种新的磁粒子成像检测方式,以检测信号中信号频谱的三次谐波幅值作为检测目标,从频率上区分开检测信号与原信号。 (2)搭建了感应式检测系统,实验验证了激励磁场与粒子参数对检测信号中三次谐波信号的影响,证明了感应式磁纳米粒子检测方法的可行性。 论文逻辑合理,写作规范,数据可信。论文工作表明作者掌握了本学科的理论基础和系统专业的知识,具备独立承担科研工作的能力。论文达到了硕士论文水平,同意答辩。,0,1,1,0,1,1,1,0,1,1,0,1,0,0 +1588,论文对固体蓄热和放热过程的传热特性进行了仿真分析,提出了蓄热体结构优化和功率分布优化的方法及模型,为固体蓄热器蓄热体结构设计和功率分布设计提供了依据;提出了高倍率固体蓄热器和预测性智能控制供热系统,并以实际工程应用验证新型固体蓄热器的实用性和预测性智能供热控制系统的有效性。论文逻辑清楚,工作量一般,创新不显著。,0,0,0,-1,0,0,0,0,1,1,0,-1,0,0 +2939,生鲜货品的物流配送直接关乎国计民生,由于其易腐和变质的特性,流通过程中路径规划的不确定性、复杂性,一方面会导致成本偏高,另一方面影响由配送服务需求的及时性、快捷性等因素构成配送服务质量,如何降低企业配送成本、优化中国冷链物流“最后一公里”问题,对促进生鲜行业稳固发展有着重要意义。该论文针对市区内由于频发的车辆拥堵现象而导致配送成本增加,冷链物流配送效率低下的情况,提出了考虑时变路网下多转运节点的多配送中心、多车型冷链物流联运配送问题,以总成本最低为目标重新建立了数学模型,并设计了一种混合蚁群算法对模型进行求解,混合算法结合了蚁群算法的正反馈性以及Dijkstra算法的全域搜索性,能够处理大范围多节点的路径选择问题,并通过预留成本信息文件提升二次搜索的速度,具有一定的创新性。该论文写作规范,论述清晰,反映了该生具有扎实的专业基础和有关专业知识,具备了良好的实践能力和理论联系实际分析问题、解决问题的应用水平。同意进行硕士论文答辩。,0,0,0,0,1,1,1,0,0,0,0,1,0,0 +1474,该学位论文以混凝土重力坝为对象,研究其在地震作用下的动态响应,选题有一定意义。文章采用ABAQUS 软件建立大坝三维有限元模型,用印度KOYNA大坝的灾害记录与数值模拟结果进行对比验证后,对一典型混凝土重力坝在迁安波作用下的动态响应进行了数值模拟,并运用时程分析法研究重力坝在满库、半库、空库三种不同工况下的位移场和应力场的变化规律。基于塑性损伤力学本构模型,对印度KOYNA大坝进行主余震序列作用下的损伤破坏研究。文章基于上述研究,得到了一些有益结果和结论。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +1924,论文针对离散时间非线性马尔可夫跳变系统的观测器问题开展了研究。主要工作包括:针对广义马尔可夫跳变系统,在状态方程和输出中同时含有未知输入时设计了一种状态观测器,可以准确跟踪系统的实际状态,估计误差收敛于零。针对广义马尔可夫跳变系统, 在状态方程中考虑未知输入且存在执行器故障时建立了未知输入观测器存在的充分条件,使观测器在故障发生时仍可对系统状态进行估计,并可重构系统所受故障。并借助非线性隧道二极管电路检验了方法的可用性。 论文研究思路清晰,逻辑性强。达到了硕士学位论文的水平。,0,0,0,0,0,0,0,0,1,1,0,0,0,0 +3036,综合评价:文章从买方关注度出发研究法拍房的价值评估质量及其影响因素,具有一定的创新性和应用性;文章论证较充分,理论支撑较完整,理论分析及作用机制分析较为全面,体现了一定的专业性;文章提出的对策建议具有一定的应用价值;文章行文逻辑较清晰,结构较为完整,层次较为分明,文笔较为流畅,形式较为规范。总体达到了硕士学位论文水平。存在的些许不足:实证数据收集部分的房屋信息相关数据采用截图方式,不太合乎规范。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +876,《《民法典》系列书刻创作探究》一文,在相关研究成果的基础上,作者对毕业创作灵感与风格形式、毕业创作过程、创作总结三个方面进行了研究。该文选题有一定价值,即探求甲骨文进入现代书刻领域的价值。但全篇文章仍缺少深入分析和梳理,多是简单介绍,有不少语句重复出现,征引文献数量少、范围窄且不规范、不完整。文章大多是主观创作感想和体会,甚至与一篇本科毕业创作报告无异,并没有体现出研究生应有的科研水平、知识储备和分析思考能力。建议修改重新送审。,0,1,-1,0,-1,-1,0,0,-1,0,0,0,0,0 +2217,"1)30页倒数第一行,施加法向加速度,但单位却是速度,请改正。同样错误出现在35页,倒数第8行。2)请核查并改正表4-1中声阻抗系数的单位。3)图4-2横坐标的单位是什么,频率是多少,请说明。4)以表4-1和公式(4-1)中来表述结构上敷设吸声材料之后的声阻抗,过于简单。因为工程实际中材料的特性阻抗都是复数,有实部和虚部,而且与厚度有关。请补充说明如何增加吸声材料层。5)49页“约束层阻尼梁参数采用第三章表3-2所示”应改为“约束层阻尼梁参数采用第三章表3-1所示”,表3-1中粘弹性层的弹性模量接近1e10,有这么高模量的粘弹性层吗?请说明出处或依据。我印象中,是不太可能有这么高模量的粘弹性层。另外,杨氏模量符号请用E,不用G。6)请补充敷设约束层阻尼层前后,结构振动响应差异,以与图4-11做比较。7)图4-13,敷设面积多了(25个单元比17个单元),敷设声压为什么反而升高?请补充说明原因。什8)图4-14和图4-15趋势也很奇怪。比如图4-14,为什么有些地方变化很陡峭,有些地方却不明显,为什么?请通过,比如增加计算分辨率,或结构响应,来补充说明可能的原因。总体印象:如果计算速度没有显著提高,感觉文中的计算方法和商业有限元没有太大区别。",0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +2623,论文对北部湾海砂进行了静动动力学特性及液化特性研究,论文主题符合岩土工程研究领域范畴,研究具有理论意义及实用价值。论文综述详尽,对本课题研究现状有较好的认识。论文研究手段合理,研究路线可行,提出的观点和见解较为准确。论文做了大量的试验,工作量饱满,内容丰富。论文写作规范,逻辑性强,图表结论总结较为可信,达到了硕士论文要求。主要的不足与建议:1、摘要部分关于孔压与振次间隙模型应具体交代清楚,而不是ABC类型,ABC是简称,第一次出现时应详细交代。2、表2-2、3-3、3-4等等表格建议补全,不要简化,数据看得更直观清晰3、P32页第一行内摩擦角均与轴向应变0.5%附近的滑动摩擦角基本一致结论有误,不管固结应力比多少,得出抗剪强度包络线是通过不同围压下的剪切试验得到的,而图2-22绘制的是不同围压内摩擦角和轴向应变的关系,意味着不同围岩有多个对应的内摩擦角,而包络线只对应一个内摩擦角。4、图3-4对应的工况是什么?因为各个工况下,累积应变与振次曲线形态不一,如果是定性分析各个发展阶段,建议根据发展进程情况归纳各区域,并说明各区域的划分。5、图3-6的固结应力比是多少?是否在不同固结应力比情况下都是如图3-6的规律?图3-6在振次高时发现弹性模量增大,分析的原因是因为更密实了。那么对应于密实程度稍小的,在振动过程中也会振密,振动次数少时还不会破坏,为何弹性模量没有提升,跟孔压有和关系,请说明理由?建议能深挖机理,进一步提升论文水平。6、图4-6(a)对应于图4-7,图4-6(b)对应于4-8,建议图幅的纵横坐标取值范围一致,便于比较,4-7三幅图也可以绘制在同一坐标系内比较,并且建议都用时程曲线,这对判别哪种类型更准确,否则坐标系比例范围不一致,曲线差别大。7、与常规砂进行对比分析,建议采用相同工况条件。另外,北部湾海沙在密实程度不高时就体现出应变软化特性,建议分析原因。,0,1,1,1,0,0,1,0,1,1,1,0,0,0 +639,论文针对视觉导引AGV的实际工作环境,对导航标识带提取算法以及障碍物的检测定位算法展开了研究。首先设计以导航标识带为导引基准,基于此基准,集相机标定、障碍物检测定位于一体的AGV视觉系统。其次在分析边缘提取算法和RGB颜色分割算法提取导航标识带的优缺点基础上,提出prewitt边缘提取算法和RGB颜色分割算法相结合的导航标识带提取算法。采用三次多项式对标定区域曲面拟合,建立标定块坐标点与图像像素坐标点的映射关系,以使标定块坐标点融合。采用帧差法对障碍物进行差分,障碍物分割。实验结果表明,以实验验证算法判断是否存在障碍物并且能够准确的检测出障碍物轮廓信息的有效性,实现障碍物与导航标识带和障碍物与AGV之间的定位。学位论文的选题应对工程实际需求,具有一定的社会价值和现实意义。论文结构和论述条理较清楚。所采取的研究技术路线正确,内容较充实。论文反映作者已掌握本领域的专业知识,具备了综合运用机械工程方法和技术解决实际工程问题的能力。论文的水平和工作量符合硕士培养要求,同意修改后参加硕士学位论文答辩。,0,1,0,1,1,1,0,1,1,0,0,0,0,0 +1129,本文的选题围绕我国国际商事法庭的协议管辖制度进行研究具有一定的理论价值和实践意义。本论文从国际商事法庭与协议管辖制度的概念与理论基础考察、我国立法检视、学者观点的对比评析,到借鉴一定的域外国家立法经验进行分析,再到对我国的应对之策,进行了较为深入的研究,逻辑结构较为合理严谨,语言较规范流畅,能够较符合学术论文的格式规范要求,表明作者具有了很强的运用有关理论研究分析实际问题的能力。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +2317,本文通过从数字化转型视角出发研究企业价值评估,采用FCFF法两阶段增长模型,并以AHP-模糊综合评价法对企业价值进行调整。论文的选题符合专业培养要求,有一定的应用价值和现实意义,论文写作规范,资料翔实,方法运用适当,能够运用专业知识和方法解决问题,论文写作相对规范,理论基础较扎实,使用方法适当,能够从新视角进行问题研究。该论文达到硕士学位论文水平,但存在如下不足和需要修改完善之处:(1)文章分析了数字化转型对企业价值的影响机理,但在企业价值评估中如何考虑数字化转型的影响?如何在财务和非财务两层面进行量化评价?还应进一步解释。(2)采用AHP-模糊综合评价法进行修正主观性较强,因此,专家的选择对结果的影响很大。(3)在现金流收入预测中只考虑数字化转型对企业物业、设备的增加,如何考虑对营业收入的影响?(4)对于第二阶段永续增长期价值的计算应列出计算过程,并说明指标的取值依据(如永续增长率-零售业平均增长率2%是否适宜?2011-2020年全国百强零售销售增长均保持两位数增长,远高于社会消费品零售总额的增速)。,0,0,0,0,1,0,1,0,-1,1,0,0,0,0 +2303,本文基于改进的超额收益法评估医药企业商誉价值,选题符合理论与现实意义,论文架构完整,内容充实,符合硕士论文要求,但存在部分不足,建议对以下内容进行斟酌修改:1、摘要部分第二段、第三段建议整合并精简,将主要研究内容、研究结论做总括性描述。同时,需要注意英文摘要与中文摘要的一一对应。2、研究意义部分,理论意义和实践意义内容有重复,如“有利于企业加深对商誉价值的认知”。建议对理论意义(一)进行重新梳理。3、研究创新点部分描述不清,建议可以从研究视角、研究方法、研究内容三方面考虑本文的创新点,并进行梳理。4、文章论述的改进超额收益法,建议增加一部分理论,专门描述本文的改进超额收益法;此外,可以在案例分析部分,增加传统超额收益法下对恒瑞医院企业商誉价值评估的情况,最后可以将传统超额收益法与本文所做的改进进行比较。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +397,论文从国内外学者对财务风险预警的研究现状入手,并对企业的财务风险理论和财务风险预警理论进行了概述,结合相关理论以 BC 房地产公司为具体研究对象,分析公司目前的财务风险状况,并从系统性和非系统性两个角度分析其财务风险的预警来源。为了构建合理的财务风险预警模型,论文首先利用灰色关联法对 BC 房地产公司财务指 标和非财务指标进行筛选,共同构成 BC 房地产公司财务风险预警指标体系。再运用层次分析法确定各指标权重,结合功效系数法计算其当前的财务风险预警评价值,并对预警的结果进行了分析。判断出目前 BC 房地产公司均处于中警的状态,利用灰色预测法对未来的财务风险进行预测。根据 BC 房地产实际情况提出了控制其财务风险的具体对策:建立财务风险预警组织监管机构;制定有效筹资方案,合理确定负债筹资规模;加强对投资项目盈利能力评估;加强营运活动风险控制等。 论文结构较合理,逻辑较严密,论述较清晰。广泛阅读相关文献,工作量较饱满。论文符合硕士论文的要求。,0,0,0,1,0,0,0,1,1,0,0,0,0,0 +2857,论文以四轴飞行器搭载视觉相机为研究对象,建立了整个跟随系统的数学模型,设计了基于颜色特征的目标检测算法和基于最小二乘法的地面目标运动轨迹预测算法,搭建了基于四轴飞行器的地面目标跟随实验平台,有效实现对地面运动目标的识别和预测。论文所提出的方法具有很好理论意义和实用价值。论文整体语言表述流畅,逻辑严谨,书写格式和图表规范,表明作者具有扎实的理论基础和较强的科研能力,论文达到了硕士学位论文水平。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +1171,本文研究了一种Si 基BDD 电极的电催化废水降解与电催化反应器设计,并通过CFD 分析评价了电催化反应器内部流体的流速、压强、流线和速度矢量的分布。该电极析氧电势(OEP)约为2.45V,电极具有较高的析氧电位。以对硝基苯甲酸为模拟废水探究了最佳降解条件,包括:pH 值、电流密度、电解质种类和极水比。结果发现,最佳电流密度为50mA/cm2、最佳pH 值为8、最佳电解质种类为无水硫酸钠、最佳极水比为4mL/cm2下,120min的停留时间可达到接近100%的降解率。对染料废水、石油化工废水和农药废水进行了电催化降解研究,结果发现,其COD 及TOC均匀较高的去除效率,对染料废水COD 以及TOC 的去除率高达96.66% 和96.56% , 吨水能耗为214.16kW·h/m3 , 去除单位质量COD 能耗为50.13kW·h/kg。同时,折流板式电催化氧化反应器对农药废水的降解效果明显优于平板式电催化反应器。 总之,论文选题正确,电催化剂设计与分析仪器选用与使用合理,实验数据可靠,写作与图表较规范,依据分析结果提出的电催化反应器设计正确,所得结论可靠。达到了硕士学位要求,建议组织答辩,并授予硕士学位。,0,1,0,1,0,0,1,0,0,0,1,0,0,0 +238,该论文论述了船舶用永磁同步电机振动分析和降振方法,具有一定的实际应用价值;论文中分析了产生电机振动的原因,分析机械结构参数对薄壳模态参数和振动大小的影响规律,并通过有限元仿真计算电机振动强度;论文表明作者基本掌握了本门学科的理论知识,并能应用其解决实际问题;论文概念清楚,层次分明,图表规范,达到硕士论文要求,可以参加硕士论文答辩。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +279,该论文主要工作如下:1、针对无线射频系统易受多径衰落引发的突发噪声和平坦噪声影响导致的误码率过高问题,提出一种基于信道估计的混合FSO/RF 信道切换系统,将光通信信道作为无线射频通信信道的备用信道,当多径衰落影响严重时,信号通过光通信信道传输;当天气恶劣时,信号切换回无线射频信道通信,二者交替传输,达到降低无线通信系统整体误码率的目的;2、针对无线射频通信系统的选择重传协议接收端缓存容易溢出、排序复杂的问题,提出一种双反馈选择重传协议,将需要重传和不需要重传的信息序列分别储存于两个接收端,并分别标号,应用插入排序算法,将两条序列重排序,获得最终序列,提高接收端缓存容量的同时,又能提高排序速度。选题来源于实践,有一定的实际使用价值;归纳总结全面,在研究信道估计的混合FSO/RF 信道切换系统和无线射频通信系统的选择重传协议方面具有新颖性。 所采用的设计方法具有一定的实用性,论文写作规范,图表清晰、 结构合理、层次分明、文字通顺,说明该生具有扎实的理论基础和较强科研能力,论文达到专业硕士的水准,同意答辩。,0,0,0,0,1,0,1,1,1,0,0,0,0,0 +2925,论文总结梳理出企业价值的创造点、增值点和数字化转型对企业价值的影响路径,进而构建出零售企业的价值综合评估模型。论文能够综合运用相关的理论知识,逻辑较为清晰,结构较为合理,层次分明,综上认为达到硕士学位论文水平。论文存在的问题及不足之处或建议1.第二章理论基础部分建议补充阐述这些理论在本文中的应用,对哪些部分起到支撑作用。2.零售企业发展现状部分建议进行适当补充。3.第五章建议进一步适当补充评估结果的分析。,0,0,0,0,0,0,0,0,1,0,-1,0,0,0 +1554,"论文《基于卷积神经网络的多光谱图像重建技术研究》对多光谱图像重建方法进行了研究。在分析国内外研究现状的基础上,将卷积神经网络应用于多光谱图像重建中,以减小图像重建误差;实验结果表明,作者提出的监督学习方法在某些特定数据集上的多光谱图像重建精度较典型监督学习方法的精度高,而作者提出的无监督学习方法在自然场景多光谱数据集上的图像重建精度较典型监督学习方法也要高,最后论文给出了采用监督学习方法的多光谱重建实例,对实际应用有一定的指导意义。 该论文具有一定的应用价值,论文显示作者具备一定的科研能力,对所研究领域有较好的了解,但在某些内容安排、研究成果展示、格式等方面还有可改进的地方,可修改后答辩。",0,0,0,0,0,1,-1,0,0,0,0,1,0,0 +1576,论文从实际的需求出发,基于额定电压电流为14 V,90 A的大功率汽车交流发电机,设计了一款混合集成电路调节器。论文选题紧密联系生产实际,具有一定的使用价值。作者对领域的文献资料的查阅和掌握程度不足,不能全面的收集和论述电压调节器的发展历程和研究进展,缺少对汽车用电压调节器国内外研究动态的了解。论文内容不够完整,工作还缺少芯片的制造和测试部分。论文叙述层次结构安排存在问题,观点不突出,大量的填充工作原理的描述,个人工作结果的分析稍欠缺,理论深度稍显不足。语言表达能力稍弱,摘要和结论均不能很好地对工作进行概括,逻辑性较差。,0,1,-1,-1,0,0,0,-1,-1,0,-1,0,-1,0 +627,论文针对基于三电平逆变器的高速永磁同步电机控制系统展开研究,选题具有较好的研究价值。论文基于简化的三电平SVPWM算法,采用5段式矢量合成方法,以简化三电平逆变器空间矢量调制算法的复杂性;基于所提的简化三电平SVPWM算法以及直接转矩控制方法,设计了基于三电平逆变器的永磁同步电机控制策略;引入关系函数修正传统龙贝格观测器算法存在的观测转速偏差,并通过引入低通滤波器来消除观测器输出的转速波动,最后通过仿真对所提的策略及方案进行了相应验证。 论文写作质量较好,工作量一般,反映出作者具有较好的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意修改后答辩。,0,1,0,-1,1,1,0,0,0,0,0,0,0,0 +994,针对前一版本提出的问题,作者做了认真的修改,特别是第四章并行算法的描述方面。修改后的论文还存在如下问题: 1.第四章算法在人类基因组 HG002 数据集上进行实验,并给出了理由,应在第三章中说明为何第三章不使用该数据集; 2. 图表排版需优化,如文中缺乏对表2-1、图1-2的描述; 3.章节题目文字格式不统一,如目录中2.2.1 和2.2.2; 4.3.3节只有3.3.1这一小节,该小节的不需单列,归入3.3节即可; 5.文字排版需优化,如第30页, “本研究中同样比较了比对结果的平均 SP 值(AVGSP)。 最终实验结果如图 3-5。” 接下来的文字应归属为同一段,不应另起一段 ;第35页出现大片空白; ,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +1126,本文从原子尺度出发,以丁腈橡胶(NBR)为基体材料,使用分子动力学方法研究不同特性的碳纳米管对其力学性能的影响,其选题具有一定的理论价值和现实意义。 通过查阅文献,作者综述并分析了国内外已有的研究和应用现状,基于现有研究的不足,开展了本课题的研究,研究主要取得了以下重要成果: (1)建立了不同手性指数的CNT/NBR复合材料的分子模型,采用恒应变法计算了CNT/NBR复合材料的杨氏模量、剪切模量、体积模量、柯西压力以及泊松比等力学性能参数,从原子维度阐明了不同手性指数CNT对NBR基体力学性能的补强机理。 (2)建立了不同直径、不同壁数的相关分子模型,研究了直径和壁数对复合材料的杨氏模量、剪切模量、体积模量、柯西压力以及泊松比等力学性能参数的影响,并从原子维度阐明了对NBR基体力学性能的补强机理。 论文反映作者已掌握了本专业的基础理论知识,具有从事本专业科研开发的能力。论文叙述清楚、结论正确,达到了工学硕士学位论文的水平。 同意安排硕士学位论文答辩,若答辩通过并满足规定条件,建议授予工学硕士学位。,0,1,1,0,1,1,0,1,0,0,1,0,0,0 +70,本论文就行了电力变压器损耗计算与热分析,建立变压器油温参数与变压器冷却系统参数之间的关系模型;进行变压器油温控制系统的结构设计,完成主要硬件设备的选型及电路设计,并进行 PLC 与变频器之间的通讯网络的设计。进行变压器油温控制系统的智能策略和方法的研究。进行模糊控制器的设 计与仿真。 根据系统硬件进行 PLC 控制系统软件设计,给出控制系统软件设计流程,进行变频器通讯控制软件设计,进行上位机软件设计。 论文选题科学,探究内容较为丰富,研制了一种新型变压器油温控制系统,该系统以可编程逻辑控制器(PLC)为 控制核心,可实现对变压器油温的智能化控制。研究具有一定新意,逻辑性也较强,文字及排版基本规范,反映该生具有较为扎实的基础理论和较好的实验技能,研究结果具有一定的工程参考价值,建议在文字处理上可以进一步规范和提高。论文达到研究生毕业的要求,同意修改后答辩。,0,0,0,0,1,0,1,0,1,0,0,1,0,0 +309,该文以兰新高铁沿线 IOCT 的主绝缘爆燃事故为研究背景,针对复杂条件下油纸绝缘系统寿命的评估展开了研究。首先基于油纸绝缘老化机理并结合纤维素降解动力学和时温平移原理,初步建立了复杂条件下的可实现数据的油纸绝缘寿命评估模型。做了大量的不同的老化条件会导致油纸绝缘样品的绝缘性能下降的试验,得出大量的数据和规律曲线。根据这些试验数据对初步出的基于油纸绝缘老化微观机理的油纸绝缘老化寿命评估模型予以改进和修正。通过曲线平移,得出水分和电压修正系数与对应应力与参考应力的比值之间呈指数关系,并将这一关系考虑到 Arrhenius 方程的指前因子中,对该方程进行修正,最终提出了结合具有理论和试验基础的复杂应力影响下的油纸绝缘寿命评估模型。 该文的研究对我国复杂条件下高铁运行可靠性具有一定的意义,具有一定的新意。显示了该生掌握了一定的基础理论知识。具有较强的科研工作能力。所得结论具有一定的工程参考价值。达到了工学硕士的水平,修改后可以考虑进行答辩。 该文立论正确,论述有据,逻辑清晰,章节安排合理,图表符合工程要求。,0,1,0,0,1,1,1,0,1,0,1,1,0,0 +1083,本论文通过模型试验及数值模拟研究方法研究了走滑断层作下断层隧洞围岩-衬砌体系的变形破坏机制,分析了依托工程的衬砌损伤规律,提出了相应设防范围。论文概念清晰、分析较为严谨。 本研究可为我国西部地区重大深埋长隧洞工程的方案论证、防断减灾设计提供一定的科学依据与技术支持,有助于提升我国西部重大隧洞(道)工程的抗错断设计水平。 以第一作者发表的论文有EI和核心,成果较多,体现出作者具有一定的独立从事科学研究的工作能力。 总体来说,论文质量达到了硕士研究生水平,同意进行硕士答辩。,0,1,0,0,0,1,0,1,0,0,0,0,0,0 +2976,文章以基于次分数Black-Scholes和机器学习模型的回望期权定价为研究对象,具有一定的理论意义和研究价值。文章研究架构合理,逻辑主线清晰,文献综述相对全面。文章在实证部分,综合运用次分数伊藤公式、热传导方程、泊松公式等基础理论,以及极端随机回归、随机森林回归、决策树回归等预测模型,对于回望期权价格进行了综合性、多维度的定量研究。综合来看,本文对于数据、图、表等的运用比较全面,体现了较为丰富的工作量,符合硕士论文写作要求。但,稍感不足的是,论文在整体格式和规范性方面,还有一定提升空间。一是一些图、表的美观性和统一性有待加强;二是参考文献出处方面,多处涉及论文作者的地方出现***,建议勘正;三是文章开头的摘要部分,以及文章末尾的结论部分等表达的有些模糊,且缺乏对于政策建议的阐释,建议在文字方面进一步完善提升。综上,论文写作质量良好,符合硕士论文要求,可在适当修改基础上予以答辩。,0,1,1,1,0,0,-1,0,1,0,0,0,0,0 +2348,本文研究主要聚焦于企业在走向东盟进程中绩效标准制定的主要影响因素,重点讨论了关键绩效因素对专利商业化策略的影响。整体而言,论文达到了硕士学位的论文水平,部分问题还需要进一步修改:1、本文研究对象是位与东盟有贸易往来关系的企业管理者,但是题目中没有体现,建议对题目进行调整。2、第三章理论基础部分,建议增加核心概念介绍。3、研究意义中的理论意义表述不明,建议从理论高度上进行凝练。4、论文的创新点部分,建议按照不同的维度重新进行提炼,简单明了。5、规范参考文献格式,尤其是外文文献,注意补全页码。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +756,习近平青年思想是新时代中国特色社会主义思想的重要组成部分。论文以“习近平青年思想研究”为题,在界定相关概念的基础上,分析了习近平青年思想的形成发展、主要内容及当代价值,选题具有一定的理论意义和实践价值。从文献综述上看,作者基本阅读了本领域的主要文献,基本了解本领域前人主要工作,能够明确自己研究工作的意义和重点。从行文来看,条理较为清晰,基本观点正确,从论文可以看出作者基本掌握本学科的基础理论和专门知识,并能运用理论来分析一些现实问题。,0,1,1,0,1,1,0,1,0,0,0,0,0,1 +1236,本学位论文围绕冗余并联打磨机器人进行了构型设计、运动学分析及有限元刚度特性分析等研究,选题具有一定的意义,研究内容较充实,为结构冗余并联打磨机构工程应用提供一定价值。论文结构合理,研究思路清晰,文字表达良好,表现出作者已掌握本学科一定的基础理论和专业知识,具备开展研究工作的能力。论文达到了硕士学位论文水平,同意进行论文答辩。,0,1,0,1,1,1,0,1,1,0,0,1,0,0 +2919,"论文主要内容包括装载机铲装作业运动学、动力学研究,并对装载机铲装作业轨迹解算,以实现装载机的作业运动轨迹控制。该论文撰写相对规范,结构合理,思路较清晰,达到硕士学位论文水平。但是,尚存在一些不足之处,需要完善和补充。(1)摘要需精简;英文摘要多处语法错误和用词失当,如“butitsfuelconsumptionislargeandtheemissionpollutionisserious”中的“serious”,“Atpresent,itisfacingthehigh-qualitydevelopmentofgreenandintelligentconstructionmachinery,soithasbecomeanimportantresearchpointtocarryoutenergy-savingandconsumption-reducingdesignofloaders.”中两个“it”指代不明;建议重新翻译英文摘要,并注意时态和语态。(2)目录中未显示三级标题,正文中公式未居中。(3)实验测试与仿真之间产生误差的原因是什么,国标规定的最大允许误差是多少,是否可进一步提高控制精度,建议作进一步说明。",0,0,0,0,0,0,1,-1,0,0,-1,0,0,0 +1601,论文对闻泰科技并购安世半导体协同效应进行了系统研究。并购是企业快速扩张的重要途径之一,并购后的协同效应怎么样,如何进行评价问题一直是理论界和实务界关注的重点。作者在对以往的并购协同效应研究进行梳理的基础上,从管理协同、经营协同、财务协同三方面对并购案例的协同效应进行了分析评价。论文逻辑严谨、层次清晰、语言通畅、图表规范。案例叙述详实,分析透彻。,0,0,0,0,0,0,1,1,1,0,0,0,1,0 +801,在人们权利意识越来越强烈的今天,如何让人们在重视权利的同时理解权利的有限性?本论文以此为硕士论文选题,选题具有较强的理论意义。文章从对权利有限性的概念、内涵、基础、内容等方面介绍入手,从不同视角分析探讨了权利有限性的原因,提出了促进权利体系完善及促成权利主体合理行为的构想和建议。文章结构清晰,层次分明,论证有一定说服力。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +1409,该生论文针对多AGV的路径规划问题进行研究,以A*算法为基础,引入OPEN表与博弈论方法对基础算法进行改进,讨论对多AGV路径规划问题中,路径长度,时间长度以及违约时间等指标的多目标优化问题,通过仿真分析,验证算法的有效性。论文整体结构合理,论文撰写较为流畅,但存在较多的基本格式以及书写错误(如:段落起始空格、段落行间距不一致,错别字—论文第52页第3行“提现”改成“体现”等),需要对论文进行严格的复查,修正上述基础性错误,保障论文质量的同时,加强研究生对待学术论文的严谨态度。,0,0,0,0,0,0,-1,1,1,0,0,0,0,0 +1347,该论文以 α-Si3N4、氮化硼纳米片(BNNSs)、 Y-Si-Al-O 玻璃粉体为原材料,利用浆料刷涂法和渗熔法,在多孔氮化硅表面制备 BNNSs/α-Si3N4 复合陶瓷涂层,并研究了涂层制备工艺、组织结构、力学性能、吸水性和热冲击性能,所得结果对涂层在多孔氮化硅陶瓷的应用提供实验依据。 论文结构完整,逻辑清晰。,0,0,0,0,0,0,0,0,1,0,1,0,0,0 +1525,可变形机器人的特殊应用领域和现实需求使其成为机器人研究中的一个热点。本文所采用的四模块可变形机器人,其结构相对简单,二维构型丰富,可实现诸多环境下的运动,是可变形机器人基础研究的一个有效对象。本文工作对四模块可变形机器人的构型进行了分析和系统总结,通过对运动性能分析了解其与构型的联系,建立运动性能评价体系,并开展实验研究。工作内容体现了作者研究生学习阶段对本学科知识的掌握程度与科研工作能力,得到的结论对四模块可变形机器人研究具有一定的借鉴意义。,0,0,0,0,1,1,0,0,0,0,1,1,0,0 +999,作者针对修改意见对论文做出了较为全面的整理与完善。该论文选题具有一定的实用价值,作者从形成条件、主要内容与当代意义三个方面展开考察,对贾格尔女性异化理论进行了全面的分析与阐释。论文结构严谨,论证充分,具有一定的逻辑性与理论深度。作者基本掌握了学科研究的方法和知识,行文流畅,较好的使用了学术语言,具有一定的科研能力。该文将贾格尔理论研究成果与中国妇女事业的发展成果相关联,表现出了作者独到的见解与创新性的思路。这充分体现了此研究的现实意义。,0,1,0,0,1,1,0,1,1,0,0,1,1,0 +452,论文论述了永磁辅助同步磁阻电机设计及转矩脉动的抑制方法,具有一定的实际应用价值;论文完成了一款永磁辅助同步磁阻电机的设计和性能计算;分析了产生转矩脉动的原因和解决方法;论文表明作者基本掌握了本门学科的理论知识,并能应用其解决实际问题;论文基本概念清楚,层次分明,图表规范,符合硕士研究生论文要求,达到硕士论文水平。可以参加论文答辩。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2438,该论文基于机器视觉的汽车拼焊件焊点检测关键技术研究而成文,其选题在理论和实际工程应用技术上都有一定的研究意义,并对该领域国内外研究动态做了一定范围的归纳。研究了汽车拼焊件焊点质量检测系统的图像采集部分,正确设计该部分可以采集到清晰且稳定的拼焊件焊点图片,基于深度学习的质量检测算法,初次实验就获得不错的效果,通过实验焊点质量检测模型的召回率达到了97.7%,精确率达到了93.4%;软件部分进行了开发与测试,将训练好的汽车拼焊件焊点质量检测模型应用到实际项目中。论文写作基本符合科技论文撰写要求。不足之处如下:1)英文摘要有语法错误,请进一步修改完善;2)参考文献中有格式错误(如[50]),请参照科技论文写作要求进一步进行修改;3)第二章分别描述了各个部分,但没有描述系统控制部分及实验台;4)第三章描述各种方法(平滑去噪、图像增强、线性灰度变换、阈值分割、边缘拟合)对焊点处理,但是本章与后章的相互关系是什么?5)图4-25、4-26、3-30和3-31中显示计算结果,但是Class0和Class1的含义论文中没有描述;6)第五章的实验验证中没有实验统计数据;7)使用Halcon深度学习系统,与第四章的内容之间的对应关系?自己程编量是多大?,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +1855,论文在分析SF6断路器开断过程的数值计算与分析的国内外研究现状的基础上,以某252kV SF6断路器作为研究对象,通过建模与仿真断路器开断过程,分析研究了电弧特性以及开断特性。选题具有实际工程应用价值。 论文工作的主要成果为: 1. 建立了应用P-1 辐射模型、标准k-ε 湍流模型的二维电弧数学模型,可用于仿真断路器的开断过程。 2. 仿真计算空载开断和短路大电流开断过程,得到不同时刻灭弧室内电弧的动态变化与气流场特性。 3. 通过计算不同分闸速度、开断相角、充气压强下的介质恢复,得到不同影响因素对开断过程的影响。 论文写作规范,语句通顺,逻辑性较好。研究工作表明,作者掌握了本学科的基础理论知识,并具有一定的应用能力。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +920,该论文在修改后,对PDCA 循环理论的认识又一定的提高。行文中的条理也逐渐清晰,研究思路体现也比较完善,逻辑上前后顺达成立。在研究方法上的部分内容陈述基本完整,专业词汇运用较比准确,研究对象与研究指标也越来越清楚。部分支撑研究的理论运用与本研究建立了支撑关系,但陈述论证仍还浅显,没有说到关键之处。理论设计程序还存在欠缺,部分教案设计对应不一致,存在错别字现象。对数据分析还是述多论少。第一次提出修改的意见在有关章节上没有修改或者论述没有深度。还存在序号不一、序号后面没有文字等等问题。,0,0,0,0,0,0,-1,1,1,-1,0,0,-1,0 +489,论文选题具有较强的实践意义和一定的理论意义,文献研究比较规范、深入,理论分析逻辑比较清楚,所依据的理论比较合理,问卷数据采集基本符合研究规范,统计分析过程及结果比较规范可信,论文结构合理,逻辑清楚,语言通顺,写作态度认真。 存在的主要问题是: 1、在问卷设计和测量中,没能很好考虑如何控制和区分非理性购买与理性购买行为、后悔行为与抱怨行为,缺少相应的筛选标准和方法, 2、关于变量测量的论述过于简略,如果能够在理论模型部分时加以详细论述,说明之所以选择这些测量量表的理由就更好; 3、最后一章对策的针对性和可操作性不强,难以对电子商务实务发挥真正的理论指导作用,这反映出作者对网购实务了解有限,建议删除对策的实务部分。,0,1,1,0,0,0,1,1,1,-1,1,0,0,0 +592,论文在收集文献资料的基础之上,首先对非公有制经济人士企业家精神的理论基础进行了研究,其次对非公有制经济人士企业家精神培育的现状进行了比较,最后根据现状研究出了相应的对策,包括树立民营企业发展新理念、塑造利于企业家精神培育的社会环境、建立健全针对企业家的相关机制。论文运用了管理学相关知识,结合马克思主义中国化专业,分析非公有制经济人士企业家精神培育,选题符合专业要求,研究有理论意义和实践价值,对培育企业家队伍有一定的指导意义。 文献阅读资料广泛,能够掌握课题的国内外研究动态及其评述,对本论文所要解决问题的目的及意义论述清晰,研究方向明确。研究视角有一定创新点。 作者有一定的独立从事科学研究的能力,能够独立完成论文中的相关工作,较好的掌握了课题相关的专业理论知识。 论文在写作过程中能够做到条理清楚,概念清晰,分析严谨;得出的结论合理;论文撰写规范,有一定的语言组织和文字表达能力。,0,1,1,0,1,1,1,1,0,0,1,1,0,1 +1475,该学位论文以基于个体优势的省域高技术产业技术创新能力评价研究为题展开研究,研究聚焦省域高新技术产业技术创新能力评价,具有一定的理论意义和实践价值,对国内外研究现状分析不全面,较为陈旧,论文整体框架较为合理,研究方法选择较为合理,使用过程较为分散,不清晰,研究工作量欠饱满,研究结论创新性一般,具有一定的科学研究的工作能力,对专业理论知识掌握不深入,论文的写作水平有待进一步增强,综上,建议大修后答辩。,0,1,-1,-1,-1,1,0,0,1,1,0,-1,0,0 +1557,论文《基于物联网的智能车间信息物理系统研究与开发》针对车间生产数据采集问题,设计开发测试了一套基于物联网的应用于离散制造的智能车间信息物理系统,可实现车间工艺环节实时数据采集,提供可视化展示界面,对于当前智能制造发展具有一定的先导性意义。论文选题新颖,研究内容与题目相符,研究路线逻辑清晰,由下位机监控节点监测采集数据,上位机管理系统接收展示数据,过程严谨,论文格式基本规范,符合硕士论文水平。,0,1,0,0,0,0,1,0,1,1,0,1,0,0 +2691,论文围绕乡镇社工站、社会工作督导实践展开研究论述。主题鲜明、结构清晰、论证合理、立足本土,具有现实意义。(1)论文选题符合专业要求。论文回应乡镇社工站问题与需求,阐述社会工作督导通过介入不同主体开展督导服务,在社工个人成长、专项能力提升、沟通平台的搭建等方面发挥作用,总结梳理乡镇社工站开展社会工作督导的有效对策。思路清晰、结构合理、观点正确。(2)立足本土,围绕社工、社工机构、社工督导三个维度深入乡镇社工站社会工作督导实践,对于乡镇社工站社会工作督导系统与完整性进行积极探索、提供借鉴。相关社工站的政策层面及国内乡镇社工站对标论证略显不足。同意答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +844,作者针对非线性广义时变马尔可夫跳变系统,研究了系统的随机容许性及状态反馈控制的设计问题。首先,对非线性函数进行线性化处理,考虑该系统的正则性、无脉冲性,通过构造Lyapunov-Krasovskii 泛函,结合转移速率矩阵中每行元素为0 的性质,得到了闭环系统随机容许的充分条件,同时给出了状态反馈控制器的设计方法。 研究了广义马尔可夫跳变系统的鲁棒非脆弱H∞控制问题,通过构造Lyapunov-Krasovskii 泛函,使得闭环系统随机稳定且满足H∞条件。在此基础上,应用线性矩阵不等式给出定理和状态反馈控制器的求解条件。 论文选题有一定的理论意义和实用价值,对科学发展、经济建设、科技进步或社会文化发展可能起到一定作用。论文文献综述表明作者阅读资料比较广泛,能够在一定程度上掌握课题的国内外研究动态及其评述,对本论文所要解决问题的目的及意义论述清晰,研究方向明确。论文研究成果有一定理论意义或实用价值,有一定创新点,论文较易,做了一定有效的工作。论文表明作者较好的掌握了课题相关的专业理论知识,具备了一定的独立从事科学研究的能力,能够独立完成论文中的相关工作。论文写作条理清楚,概念清晰,分析严谨,逻辑性较好,得出的结论合理,撰写比较规范,有较好的文字表达能力。 综上所述,论文达到硕士论文要求,建议修改论文后答辩。,0,1,1,1,1,1,1,1,1,0,1,1,0,0 +329,钢管混凝土柱与钢梁之间的连接是钢管混凝土结构中重要的节点,其受力特性直接关系到结构的安全和稳定。论文选题具有良好的实际应用价值。论文利用ABAQUS进行了多种条件下的数值模拟和分析,所得结论具有一定的可信度和使用价值。论文做了不少工作,具有一定的学术水平。论文的研究思路清晰,表达规范,所得结果可信,总体上达到 硕士学位论文的水平。,0,1,0,1,0,0,0,1,1,0,1,0,0,0 +2064,文章选题有一定的意义,一带一路建设对我国具有重大意义,环境保护合作是其中的重要内容,对这个问题进行研究是有必要的。文章结构清晰,符合基本的研究逻辑。能够运用所学法律知识进行较为基础的研究,所得出的结论有一定的参考价值。文章语言通顺,格式基本规范,搜集了一定量的资料,基本上达到了硕士学位论文要求,同意参加答辩。,0,1,1,0,0,0,1,1,1,0,1,0,0,0 +2736,论文选题具有明确的工程应用背景,研究具有理论意义和实用价值。综述体现了作者对移动机械臂的运动规划领域国内外发展状况和学术动态的了解程度较高。论文针对移动平台路径规和冗余度机械臂关节速度运动控制等提出了改进策略,具有一定的应用价值。论文体现了作者具备一定的理论基础,初步具备了分析问题、解决问题的能力;可以采用先进技术、设备、信息等进行论文研究工作。引文的规范性高,学风严谨;论文语言表达准确、逻辑严密、书写格式及图表规范。具体问题请酌情修改:1、英文摘要机器翻译的痕迹较重,需要做必要调整。例如,paper须改为thesis.2、第3章移动平台的路径规划研究中,移动小车避障路径规划的研究内容稍显浅显。没有考虑机械臂的存在对移动小车的避障运动的影响。3、第4章和第5章的研究内容在轨迹规划和跟踪过程中,并没有考虑由于移动小车的存在增加了系统的自由度(属于高度冗余系统),对于轨迹规划与跟踪的影响。移动小车与机械臂的研究成为两张皮,缺乏有机的联系。该生达到了硕士学位论文水平,同意答辩。,0,1,0,0,1,1,0,-1,1,0,0,0,0,0 +2232,1.国内外研究现状分成了甲状腺疾病属性分析现状、Lasso回归方法应用现状和分类预测应用现状,为了紧扣研究主题,建议围绕甲状腺疾病展开,因为Lasso回归方法和分类预测应用领域非常广,所以相关文献汗牛充栋;2.论文中一致强调Lasso回归,机器学习中还有岭回归和弹性网络,所以不需要强调Lasso,这只是一种防止过拟合的正则化技术;3.论文分类采用BP神经网络、随机森林和XGBoost,BP神经网络只是一个弱分类器,而随机森林和XGBoost都是集成学习算法,三种方法放在一起并不合适,即BP神经网络与集成学习算法无可比性;4.论文中研究创新点必须准确且恰当,建议结合研究内容客观撰写;5.相关理论技术介绍可以融入后续研究内容中,无需单独作为一章,涉嫌凑篇幅。,0,0,-1,-1,0,0,0,0,0,-1,0,-1,0,0 +2150,针对现有控制策略中仅考虑BDFM电机稳态运行,而缺乏动态过程中的BDFM 转矩和磁链控制的现状,论文研究了BDFM动态转矩控制策略,论文研究对于提高电机动态运行性能具有重要意义。论文主要进行了如下研究工作: 1. 论文通过对BDFM四个磁场分量及电机的功率和转矩分析,找到了影响电机动态转矩的磁场分量,并获得了通过控制电机副绕组的电磁转矩以实现电机动态电磁转矩控制的结论。 2. 利用传统电机建模方法,建立了BDFM系统数学模型。通过检测副绕组电压的相位间接得到磁场定向角,提出了一种简单的间接磁场定向控制方法。 3. 在MATLAB/SIMULINK环境下搭建的电机及其控制系统仿真模块,验证了论文研究方法的有效性。 总体而言,论文作者能根据转矩动态控制需要,通过数学建模、转矩及功率分析,为提出了较可行的转矩控制策略,并利用仿真验证的控制策略的可行性。在论文写作上,总体结构合理、语句较为通顺,逻辑性较强,写作规范性较好。达到了硕士毕业要求。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2927,论文作者设计了一种能够辅助中风患者进行自主运动康复的下肢康复训练机器人,研究内容包括方案拟定、机械结构及控制系统等完整内容,有理论仿真分析也有实物样机,并针对设计的机器人使用情况及康复效果初步开展了临床试验研究。论文整体研究思路清晰,方案可行,工作量饱满,达到了硕士学位论文的水平。论文存在的问题及不足之处主要有:1.p.24在计算机器人直行时的驱动功率时,只考虑机器本身自重所产生的阻力,而为考虑对患者减重时增加在机器上的额外重量,导致功率结果可能会有所偏差。2.论文撰写的规范性有待提高,部分语句不通顺,格式排版存在问题,具体有以下几处,请作者参考并加以修改。1)文中图及表的英文应该采用缩写的方式为宜;2)p.14第2行图1-11所示应为图1-12,第5行如图1-12应为图1-13;3)p.15第2段落第1行,“其上上装”应为“其上装”;4)p.18第1段第3行,如图2-1工作环境图2-1所示,这句不通顺;5)p.25表2-2中功率单位应为“W”,表中为Kw;6)p.32图2-15中的文字标注说明,字体太小看不清;7)p.35表2-4上方段落第4行的“Figure”应去掉;8)p.37表2-5下方段落第2行“如表2-4”应为“表2-5”;9)p.39第1段第3行,“变量较小”应为“变形量较小”;10)p.40第1段第2行,运动学正解是通过给出驱动然后切除??结构实现的预设动作,此处切除一词是否为别字?11)p.41图3-2上方段落最后一行,如图7所示?12)p.43最后一段对于图3-7的描述有误,第3行的X轴方向偏差最大位移量84mm左右,从图中来看,应该为Z轴;13)p.46最后一段描述的逆时针运动,从图中来看应为顺时针;另外对于圆柱体A的质心的位置偏差-24.5mm~38.5mm,该数值与图3-12放映出来的结果不一致,图中应该为245~385mm,为何降了10倍?14)p.56图4-11上方段落最后一行“如图4-10”应改为“如图4-11”;15)p.62第1段第2行,“与缝隙平行”应改为“与缝隙垂直”,轮子与缝隙垂直时通过性才最好;16)p64倒数第4行,这一类大类?,0,0,0,1,0,0,-1,-1,-1,0,0,0,0,0 +1061,Zr 基非晶合金由于良好力学性能,其压铸成形工艺理论研究取得了快速进展。目前在实践应用领域,Zr 基非晶合金构件压铸依然在母合金制备和构件成形方面存在困难,缺少低成本母合金熔炼工艺技术和构件加工工程化装备及工艺,难以实现合金结构稳定控制。本学位论文针对Zr 基非晶合金压铸工艺问题开展了系列实验,开发真空感应压铸模具装置及工艺实现制备Zr 基非晶合金构件,从工程化应用的角度很有创新性,解决了实际问题,取得了较好结果。论文实验工作量饱满,结果分析较好,格式规范,结构层次比较清晰。同意答辩。,0,0,0,1,0,0,1,0,1,0,1,1,0,0 +2744,论文选题具有一定的理论价值和实践意义。论文采用实证研究方法,从业绩承诺达标率、业绩承诺方向和业绩承诺补偿类型等业绩承诺条款方面,研究业绩承诺对商誉减值的影响,并有针对性地从并购方、监管部门、资产评估机构等角度提出相关的政策建议,对防范业绩承诺造成商誉减值损失有参考意义。论文中心突出,观点鲜明,论述较充分。论文达到硕士学位论文水平,同意修改后直接答辩。但是,论文还存在不足之处,仍需要进一步修改、完善。1.本篇论文选题更适合会计、财务管理等方向,专硕论文通常不建议采用实证研究法,如果结合案例研究,则更具体。2.论文的理论部分,应进一步研究业绩承诺对商誉减值的影响机制及作用机理。3.论文的实践部分,应针对业绩承诺对商誉减值的影响,有一个总体的认识,然后再以点带面,得到规律性的认识。4.应进一步从评估的角度分层次梳理实证分析结果的合理性。,0,1,0,0,0,0,0,0,1,-1,-1,1,0,0 +1791,论文以Ti55531钛合金和TiC/Ti-6Al-4V复合材料为研究对象,通过对固溶温度、固溶时效、低温退火、高温退火、冷却方式等对研究对象组织、力学性能、摩擦学行为等进行了较为深入细致的研究,确定了两种研究对象较优的置备工艺及热处理工艺,对钛合金刀具材料的选择及置备具有一定的参考价值;并通过有限元软件对钛合金刀具磨损行为进行了仿真分析,探索了一条较为适用的刀具磨损仿真预测途径。 该论文结构较严密,语言较通顺、表达规范,格式符合要求。达到了硕士研究生毕业论文的要求,同意进入答辩环节。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2589,可回收垃圾的回收再利用具有巨大的经济效益和社会效益,论文利用深度学习方法对可回收垃圾的分类进行研究,选题具有一定理论意义和实用价值。论文利用风格迁移的方法实现数据增强,在残差网络ResNexst-50模型中加入注意力机制SE进行可回收垃圾的粗分类,在此基础上将SE模块融入BCNN双线性网络进行细粒度的可回收垃圾分类。论文反映作者阅读了相关文献,对课题的研究动态及本学科领域相关知识有一定了解,具有一定的文献分析和综述能力。论文运用的理论知识和研究方法符合实际情况,采用的技术路线合理,说明作者在本学科具有一定的基础理论和专业知识,掌握了基本的研究方法和技能,能够应用所学知识解决课题中的实际问题,具有一定的独立从事科研工作的能力。论文格式基本规范,但有的地方句子不完整,语句不通顺,存在错别字,如P18“测试误差确相对变大”中“确”应为“却”,P28“表现出不同与目标图像的风格”中“与”应为“于”,P36“channe”应为“channel”,37“Droupout”应为“Dropout”,P42“Excitataion”应为“Excitation”,P48“图4-9加入注意力机制混沌矩阵图”中“混沌”应为“混淆”,P63“理想状态时”中“时”应为“是”,“再此过程中”中“再”应为“在”,P72“训练熟读”中“熟读”应为“速度”,“参数对多”中“对”应为“过”。有的地方前后不一致,如“网络”和“网路”,“实验”与“试验”,P39表4-3展示的是在训练集上的结果,而不是测试集上的结果,但P53却称“在hs-garbagenet2上测试集达到92.9%的准确率”,前后不一致;图5-11和后文中的“SE_BCNN_ResNet”与上文“SERes-BCNN”不一致。有的地方描述错误,如P44“将F'输入到图4-6网络结构”中“图4-6”应为“图4-7”,P55“袋子类数据集包括布类、纸类、金属类和其他类”中“金属类”应为“塑料类”;P61“表5-3所示为实验结果”,但表5-3为盒子类样本分布,不是实验结果;表5-9中改进前BCNN在Box和Bag上的Accuracy与表5-6数据不符。论文中有的地方分析不够严谨,如5.3.3中SEResNext-50和BCNN-ResNet34二者在Bag上准确率相同,SEResNext-50在Lid上比BCNN-ResNet34高1.08%,但BCNN-ResNet34在Box上比SEResNext-50高6.33%,平均准确率BCNN-ResNet34高于SEResNext-50,但文中分析结果却是SEResNext-50在同一大类不同子类的任务中表现较好,显然与实验结果不符;第5章实验以最高准确率说明基于注意力机制的双线性BCNN网络SERes-BCNN的有效性,结果片面,不太严谨。实际上,未引入注意力机制的BCNN-ResNet34在同一大类不同子类任务中分类平均准确率85.44%,而SERes-BCNN的分类平均准确率为85.07%。显然,在同一大类不同子类任务中,BCNN-ResNet34的平均准确率更优。此外,如何理解BCNN中“每个单线程的输出”?是否应为“单线性”?表4-13表名“Se模块不同激活方式在改进后的SEResNext的准确率对比”不妥当,因为表中除了准确率,还有其他性能评价指标。部分参考文献标注格式不规范。,0,1,0,0,0,1,-1,0,0,0,0,0,0,0 +1893,论文针对飞轮储能系统采用永磁同步电机进行设计研究,总结概括了飞轮储能系统以及高速永磁同步电机的研究现状,设计了一台适用于飞轮储能系统的高速永磁同步电机,并对该电机磁场、温度场以及机械特性进行了详细分析,采用有限元方法对电机进行了仿真计算。论文总体语言表达清晰、逻辑清楚、课题研究成果对于工程应用的初期设计具有一定的指导意义。,0,0,0,0,0,0,0,1,1,0,1,0,0,0 +897,此文章分析的是《葬花吟》的情感表达与演唱风格的掌握,论文结构完整,语言也比较流畅。没有发现严重的语法错误,论文题目与论文的内容基本相符,符合专业培养目标;情感分析主要从歌词、美学和表演展开,演唱风格主要从咬字、吐字展开,但是对这两部分的论述过于简单,不能凸显研究主题,作为文章中最重要的部分没有结合自身出发,没有实例论证,不符合研究生论文的写作要求,缺乏个人见解;另外,修改时多注重文章中研究现状的写作以及文章的格式问题。,1,0,-1,0,0,0,-1,0,1,0,0,0,0,0 +3003,"依据专业硕士论文的各项考核指标,题为《水平定向钻进安装管道设计》的实践报告基本满足了指定要求,准允通过。首先本文作者的翻译选择材料符合专业培养方向,属于科技类机械题材的文本,难易程度适中。翻译实践结果表明作者遵循了客观、简介、信息量充分的特征,文体特征也忠实再现了原文的特色。其次,该文的作者有能力用流畅清晰的英语语言表达自己的观点,附加充足的案例给以说明。而且卡特福德的翻译转换理论切入这类文本也具有一定的阐释性,这在目前已是比较成熟的研究思路,不过,从另一个侧面它说明没有新意,但是至少可以安全地实施操作。最后,特别要指出的是,作者的相关参考文献提供的很充足,这也体现在文献写作方面的详实充分。建议修改如下:1)摘要写作在层次上推进不清晰,句与句之间的衔接不紧凑;2)4.1.1.shiftsoftense,例1和例2中的reduces/provides通过tense代表的层次是什么?为什么通过添加“可以”就视为转换为对等的“层次”?请解释清楚。3)4.1.2.shiftsofpluralnouns放在范畴转换是否比放在层次转换更合适?",0,1,1,0,0,0,0,1,0,0,0,0,0,0 +341,轨道交通断路器是列车能量供给控制的关键设备,由于列车空间尺寸的要求,断路器及其操控机构需要小型化,论文对轨道交通车载断路器电磁操作机构的小型化技术开展研究,具有一定的理论和工程实际意义,论文的主要工作包括: (1) 针对车载断路器结构构建了断路器有限元分析模型,并对操作机构的电动机构进行了参数优化,减小了系统体积; (2) 搭建了断路器实验平台,并对电磁操控机构的动作准确性进行了实验分析,验证了仿真模型。 论文工作比较扎实,图表清晰,基本达到了硕士毕业论文要求,建议提交答辩。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +983,文徵明兰竹题材的花鸟画作品颇具艺术与审美个性,对后世影响很大。该硕士学位论文,对文徵明兰竹题材的花鸟画作品进行专题讨论。这一选题有一些学术价值,文章在讨论过程中提出了一些值得注意的说法。总体上看,该文章目前基本上达到合格的硕士学位论文基本的要求,经过进一步修正、完善后可以参与答辩。 修改意见: 注释与参考文献的标注仍然不规范,建议依照学位授予单位的规定或者通行的规范予以处理。(如第15页的脚注,[9] [明]文徵明.文徵年谱(卷第二)[M].周道振辑校.上海:百家出版社,2014.72.应该改为[9] [明]文徵明.文徵明年谱(卷第二)[M].周道振辑校.上海:百家出版社,2014:72. 参考文献部分,著作类出版物,要标注出版社所在的城市。) 语言表述方面,建议能进一步推敲、打磨。 全文定稿后,务必仔细校对。 ,0,1,0,0,0,0,-1,-1,0,0,0,0,0,0 +2825,"论文以MOFs材料为前驱体,通过一系列的功能化修饰,制备了4种MOFs衍生材料,并且将它们应用于电化学传感器的制备,得到了具有良好电化学性能的电极传感材料,将制备的材料固载在电极上,构建出4种具有良好选择性的电化学传感器,并成功应用于木犀草素、芦丁和多菌灵的检测。本文构建的电化学传感器具有简单、快速、高灵敏检测的特点,为药物小分子和农药残留的检测提供新的方法和思路,具有一定的现实意义。论文选题具有自己的研究特色;作者对专业知识的掌握程度较好,有足够的文献阅读量,科研能力较好,治学态度严谨,工作量饱满,写作水平尚可,但仍有一些需要提高的地方。改进地方如下:(1)英文摘要中有一些打印错误,如GlassyCarbonElectrode,首字母应为小写;Therecoveriesofrutinintabletswere95.12–102.30%byaddingstandardmethod,句中byaddingstandardmethod如何理解?(2)中文摘要:加标回收率分别为97.7%–99.78%和95.56%–101.42%,论文中加标回收率数值表示形式最好都保持一致,小数点后一位还是两位?(3)每章的电化学讨论部分,很多中文图注的表述较长而且不通顺,需要认真检查修改(4)图4-7(a)。。。。(b)不同扫速下,Ip与5μM芦丁的关系(。。。。)。图注表述存在错误,图中怎么能看出Ip与5μM芦丁的关系?(5)表2-1ZnO/ZnS/GCE对独一味软胶囊中的木犀草素的检测。Table.2-1DeterminationofluteolininDuyiweisoftcapsulebyZnO/ZnS/GCE.表注结尾处无标点符号,需修改。全文图注及表注如Figure.5-9,Table.5-1等,为啥Figure和Table后均加小圆点?啥用意?通篇都是这种形式。(6)论文中有些文字表述需要进一步斟酌和简练。综上所述,论文虽有一些地方需要改进,但总体较好,具有较好的应用前景,达到了硕士论文的水平,同意修改后参加论文答辩。",0,0,1,1,0,1,0,-1,-1,0,0,0,0,0 +784,营运资金管理是实体经济企业管理的重要内容,本文选题具有一定的使用价值。论文创新之处表现在把价值链管理、供应商管理、客户关系管理等融入营运资金管理中在A企业应用。基本掌握了工商管理学科和财务专业的相关知识,有一定的分析问题解决问题的能力。论文写作语句流程结构比较合理、有一定的逻辑性,符合硕士学位的论文要求。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +1567,论文采用热力学计算、数值模拟和实验相结合的方法研究了Cu元素、模具温度和磁场等对 Mg-7Zn-xCu-0.6Zr 合金凝固行为、热裂敏感性和室温力学性能的影响。论文选题对于学科发展和实际应用具有良好的促进作用;通过文献综述和实验结果分析表明该同学基本了解了本领域的发展现状,研究目标明确;实验方案设计基本可行,获得了一定的研究成果,对实验结果的解释基本合理,表明该同学基本掌握了本学科的专业基础知识,研究工作量适中;论文写作通篇存在表述不清晰、不完整、啰嗦、口语化和明显错误等问题。建议经过较大修改后,经导师同意答辩。,0,1,0,1,1,0,0,-1,0,0,0,0,0,0 +41,Al基非晶合金由于优异的物理性能和良好的耐蚀能力而具有比较好的应用前景,但如何制备出性能优异的Al基非晶合金涂层和有效提高Al基非晶合金的耐蚀性能,是目前急需解决的关键问题,论文针对这一方向开展研究工作,选题具有较大的理论意义和实用价值。作者查阅了大量的相关文献,基本了解研究领域的国内外发展现状。论文首先制备了Al86Ni6Y4.5Co2La1.5非晶复合涂层,评价涂层的孔隙率、腐蚀性能、结合强度和抗冲击等性能,并通过添加Cr、Ti、Mo等微量元素对Al-AM非晶合金进行成分优化、考察耐蚀性能,选取不同含量稀土元素Ce替代Al-AM中的La,系统研究了Ce对Al-AM非晶合金耐蚀性能的影响规律与机理,研究内容丰富,理论分析较深入,体现了作者较好的掌握了本学科的专业知识和基础理论,具备独立从事科学研究的能力。论文写作格式较规范,结构较清晰,基本达到了工学硕士学位论文的水平,同意答辩,并建议授予工学硕士学位。,0,1,1,1,1,1,1,0,1,0,0,0,1,0 +2323,本文通过数值模拟的方法建立了基于单孔孔板装置的壳聚糖溶液空化泡群·OH产量计算模型,并分析了上游压力、下游压力、孔板的喉径、孔板的管径、壳聚糖浓度、空化泡半径对·OH产量的影响。论文选题具有实用性,主题鲜明,具有一定的研究价值和工程应用前景;论文文献总结全面而系统,陈述了国内外应用研究现状与发展趋势,对拟解决的问题进行了系统的试验研究。研究工作具有一定的创新性且工作量饱满。作者研究成果具有一定的先进性;论文的书写较为规范、文字表达比较准确;分析较为严谨、逻辑较为严密;综上,论文已达到硕士学位论文水平要求,同意答辩。,0,0,0,1,0,0,1,1,1,0,0,1,0,0 +250,该论文选题具有很强的使用价值,符合专业硕士学位的要求;能够对Y耐火企业的成本存在问题进行较深入的分析,利用层次分析法建立Y耐火企业成本绩效评价体系,又用其他方法进行影响成本的多种分析方法;关于成本核算成本控制的基本知识掌握比较扎实、并能够灵活运用,使得Y耐火企业的成本问题分析比较具体,并提出相应的优化对策建议;文章结构比较合适,有一定的逻辑关系,符合硕士学位论文的毕业要求。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +2969,文章选题具有一定的现实意义,参考了较多的参考文献,具有一定的分析问题和解决问题的能力,文章结构合理,条理清晰,内容完整,语言流畅,格式正确,研究方法和模型合理,能够用专业知识解决现实问题,论文写作符合学术规范,达到硕士学位论文水平。不足之处在于,对于所选择的FCFF模型中引入了动态折现率测算案例公司的股东权益价值,但是贝塔系数和特定风险系数的确定可以更加优化,比如贝塔系数可以选择动态指标,特定风险调整系数的选择可能和案例企业存在一定差异。,0,1,0,0,1,1,1,1,1,1,0,0,0,0 +447,论文开展了FV520B 不锈钢及7075 铝合金硫化物应力腐蚀行为的研究,选题恰当,具有较重要的理论意义和实用价值。   作者综述了许多有关文献,掌握了该领域的国内外研究现状和发展方向。论文在不同强度FV520B 不锈钢和不同温度和热处理工艺处理后的7075 铝合金在含硫化氢的环境下的应力腐蚀行为腐蚀性能差异等方面开展了研究,具有一定的创新性,取得了如下主要研究成果: (1)硫化物环境下FV520B 不锈钢氧化膜不稳定,钝化膜形成为先增厚后变薄最后直至溶解。点蚀引起裂纹萌生,阳极溶解和氢致开裂共同加速裂纹扩展并导致应力腐蚀开裂,不同强度等级不锈钢应力腐蚀敏感性随硬度提高而加大。 (2)7075 铝合金作为叶轮服役温度不应超过120℃。温度120℃~160℃之间7075 铝合金在性能开始衰减,温度越高性能衰减越明显。 (3)7075 铝合金在硫化物环境下腐蚀速度加快,强化相作为阳极腐蚀速度加快,H2S与基体形成钝化膜,使腐蚀过程更均匀。H2S 环境中不同时效工艺对腐蚀性能的影响小于氯化物腐蚀环境,应力腐蚀敏感性为RRA>T7>T6,裂纹萌生主要由于阳极溶解,应力作用下阳极溶解和氢致开裂协助裂纹扩展并导致应力腐蚀开裂。 (4)硫化物环境下FV520B 不锈钢应力腐蚀敏感性高于7075 铝合金,主要由金属的组织结构,钝化膜半导体特性,发生塑性变形时钝化膜破损概率,点蚀形成的差异以及腐蚀产物的性质差异等多因素共同导致。   论文层次分明,图表规范,实验数据可信,叙述清楚,分析和结论正确。论文体现了作者具有较扎实的理论基础和专门知识,具备了从事科研工作的能力。 论文达到硕士学位论文水平,建议组织答辩。,0,1,1,0,1,1,1,1,1,0,1,1,0,0 +572,论文以企业并购中的融资问题为研究对象,聚焦于信托融资这种融资方式在企业并购的作用及其运用,结合典型案例对信托融资参与企业并购的机制、优势、可行性及五种主要的应用模式和可能遇到的风险等进行了梳理、分析和总结,并且结合富控互动利用信托融资收购宏投网络的案例进行了具体的分析和介绍,结合富控互动利用信托融资收购宏投网络的案例从信托方案、还款来源及担保措施等方面进行了具体的分析,最后结合理论和实践,给出了优化的对策和建议,从整篇论文的选题、结构来看,该论文逻辑性较好,达到了硕士论文的水平和要求,同意答辩。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +2203,"“《动力电池技术及应用》(节选)英译实践报告”,以作者翻译胡信国等学者编著的《动力电池技术及应用》一书第六章《燃料电池》为基础,以卡特福德“翻译转换理论”为指导,总结反思自己的翻译实践,以实例说明了作者在实践过程中综合运用理论知识解决翻译问题的过程、方法,证明了翻译转换理论对科技类文本翻译的指导作用,为其他译者翻译同类文本提供了实用性的翻译方法。报告逻辑清晰,结构合理,层次分明,论证充分。作者翻译工作准备充分,时间安排合理,附录的译文行文通顺,译法得当,可读性较强,论文的工作难易程度和工作量大小可以达到MTI硕士论文写作的训练要求。论文存在的不足之处体现在:1.表达:语言表达中存在个别时态误用现象,譬如:P.11:In1965,thetranslationshiftstheoryhasbeenestablishedbasedonHalliday’stheoryofsystemic-functionalgrammarsincethepublicationofCatford’sonlybookontranslationtheory,ALinguisticTheoryofTranslation.本句有一个具体的过去时间状语,即1965,还能用现在完成时的被动语态?2.译文:个别译文的语言表述还需润色、修改、打磨。如p.24:ST:正是由于没有污染环境的排放物和低噪声,燃料电池可以用于人群居住的地方,这意味着电能可以在任何需要的地方实现本地生产。TT:Sincefuelcellshavenoemissionsthatpollutingtheenvironmentandarelowinnoise,theycanbeusedinplaceswherepeoplelive,whichmeansthatelectricitycanbeproducedlocallywhereveritisneeded.译文的前半部分里,即since引导的从句中,明显存在语法错误。3.细节:p.7-8、16、24表格的制作,应注意一些细节之处:与前后正文应有一定的间距,表格里的字号可以用小于正文一个字号;P.19最后一段:“Regardlessoflength…中的引号,明显为误用;注意个别单词的大小写,如:p.9:ThematerialofFuelcell,asakindofnewenergy,…中的Fuel的第一个字母;p.24:P.24Thisisbecausesince…中becausesince能一起使用?",0,0,0,1,1,1,0,1,1,1,0,0,0,0 +1116,本文采用单辊甩带法制备了非晶基体中含有少量晶态相的 Mg 65 Cu 25-x Ag x Y 10 (x = 0,5,10)条带、Mg 65 Cu 15 Ag 10 Y 10 完全非晶条带,并以非晶基体中含有少量晶态相的 Ag x 条带为基础通过脱合金化法制备了具有不同孔径的 Ag x 脱合金化条带。通过原法处理顺式氯氰菊酯农药废水,研究了条带 Ag 含量、农药废水溶液 pH 值、农药初始浓度以及条带加入量对农药废水降解效率和降解速率的影响,给出了各合金条带较佳的水处理工艺。 论文选题具有一定的实用价值,书写较为规范、结构较为严谨,层次清晰、分析比较合理,英文摘要语法无明显错误,参考文献标注正确。但对于实验材料和实验方法的论述不够准确和精炼。论述欠规范,对于pH值对降解的影响分析不够严谨等。作者能较好应用所学专业知识对实验数据进行合理分析讨论,反映作者已经掌握了本专业的基础理论知识,并具有分析、解决问题的能力和从事本专业科研的能力。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2159,直驱 H 型运动平台易受参数摄动、负载扰动和机械耦合等不确定性因素的影响,造成平行轴间的同步精度下降。该论文通过设计有效的控制策略来保证单轴精度和减小平行轴同步误差,具有一定的实际意义。 论文首先建立了在考虑X 轴负载变化对平行轴造成的影响条件下直驱 H 型平台的数学模型。然后设计了交叉耦合控制器,以修正误差作为控制状态变量,削弱了平行轴两台 PMLSM 间的机械耦合作用,提高直驱伺服系统位置跟踪精度与同步精度。最后设计了自适应分数阶快速非奇异终端滑模器和交叉耦合控制器相结合的同步控制策略。保证了直驱 H 型平台伺服系统的动态品质,减小了双直线电机的同步误差。研究成果具体一定的参考价值,表明作者具有一定的理论基础和分析问题的能力。,0,1,0,0,1,1,0,0,0,0,0,1,0,0 +2652,论文将DCF模型和实物期权法应用于新能源企业价值评估,选题来源于实践,具有一定的理论意义和现实意义;能够综合运用相关的理论知识,理论联系实际,选择合适的研究方法;研究较深入,运用资料较丰富,工作量较饱满,结构较合理,层次较清楚,能反映一定的运用所学知识分析问题解决问题的能力。总体上达到了硕士论文水平,经必要修改后可以答辩。论文不足及需要修的地方:(1)题目“改进的DCF模型”,论文中未体现如何改进“DCF模型”,只是对参数取值进行了所谓的改进。(2)对盛新锂能实物期权项目的分析不深入,直接将“企业的一个重点在建工程项目”作为实物期权,缺乏对具体是何种实物期权的明确界定;实物期权是蕴含在项目中管理柔性,是未来的一种选择权,论文将已在建的投资项目直接作为实物期权是何种期权;在计算实物期权价值时将股票收益率的波动率作为期权项目带来的企业自由现金流的波动率也值得商榷。(3)有些地方表达不清,如第11页“可能的创新点与不足”、第21页倒数4行“包括了公司的实际利益以及企业的全部资产和负债”、倒数5-6行“自由现金流量是指所有股东权益的总价值之和”将企业整体价值与股权价值混淆、第25页“期权地标的物”、“以公司现金流折现值为标的”、第46页“该项目的的”等。(4)第21页公式(4-1)时间标注错误。,0,1,0,0,0,1,0,-1,0,0,0,0,0,0 +2434,该论文分别运用复模态法与传递函数法对于无理式风谱(Davenport谱)以及有理式风谱(以巴斯金谱为例)作用下的六参数实用粘弹性阻尼耗能结构及其阻尼器保护系统的响应谱矩进行了解析分析。通过研究得到了如下结论:1、对于有理式风谱(以巴斯金谱为例),分别以复模态法和传递函数法对于带支撑的六参数阻尼结构进行了分析。2、对于规范的Davenport谱,先以不带支撑的六参数阻尼结构,运用复模态法对于结构系统进行处理,获得了结构系统的特征值矩阵以及结构响应的频域解,3、对带支撑的六参数阻尼结构在规范的Davenport谱作用下运用传递函数法,在耗能结构体系的非扩阶空间中,获得了耗能结构与阻尼器保护系统的时域瞬态响应精确解析解。论文在下面两个方面略有瑕疵:1、英文摘要还需进一步仔细斟酌。2、本文用的是解析方法,但是文中得到的一些图形所用的软件还需要说明一下。该论文作者写作态度严谨,论文结构严谨,采用解析方法撰写该论文,体现其扎实的理论功底,所得出的结论真实可靠,并有一定的工程实践意义。该论文在难度、深度、广度上达到了硕士论文的要求,并且工作量饱满,且论文格式符合对硕士毕业论文的格式要求。该论文有一定的创新性,总体论文水平达到了硕士毕业论文的毕业水平,同意参加论文答辩,并授予工学硕士学位。,0,0,0,1,1,0,0,-1,-1,0,0,0,0,0 +1985,目前B企业生产的防毒面具存在呼气阀气密不良问题,论文通过六西格玛方法,按照DMAIC流程,从产品和客户需求出发,运用测量系统分析MSA以减少测量过程的不确定度,保证测量数据的可靠和稳定,并筛选得到影响呼气阀气密性的关键输入变量。针对防毒面具阀座密封口平坦度问题,采用DOE和CAE相结合的方式, 对注塑工艺参数进行优化,得到优化后的工艺参数对气密性存在显著影响的结论,并对改善前后进行了对比分析。 论文选题来源于行业实践,具有很具体的实践背景,对防毒面具的质量改进具有积极的意义。作者广泛阅读了相关的文献,对国内外研究动态基本掌握,对论文所要解决的问题能有清晰和深刻的认识。研究方法得当,体现了作者具有独立应用六西格玛等方法解决实践问题的科研能力,研究结果对于改进产品质量具有积极的意义。,0,0,1,0,0,0,0,0,0,1,1,0,0,0 +20,《炮长瞄准镜故障诊断专家系统的研究》课题围绕如何快速准确检测炮长瞄准镜性能指标展开研究,论文的选题具有一定的实际意义。作者在课题研究过程中,采用减法聚类算法和故障树分析法对炮长瞄准镜的部件和控制信号故障实现了知识获取,构建了炮长瞄准故障诊断专家系统的知识库,设计了炮长瞄准镜故障诊断专家系统的推理机,并完成了系统软件的开发,实现了炮长瞄准镜的故障诊断功能并给出合理的维修建议。从课题的研究内容和研究成果上,可以看出作者对本学科知识掌握扎实,能够应用所学知识独立完成研究工作。论文整体上规范性较好,研究工作量和成果达到硕士研究生毕业标准。同意答辩。,0,1,0,1,1,1,1,0,0,0,0,0,0,0 +207,多相电机转矩脉动小、在一相或多相开路时仍能继续运行,具有很高的可靠性,是近年来电机控制领域的研究热点。论文在对双三相电机控制策略调研的基础上,重点对双三相永磁同步电机直接转矩控制策略进行了分析研究。研究面向当前社会发展的需求,具有一定的应用参考价值。 本文作者在导师的指导下,在掌握了本专业基础理论和操作技能的前提下,论文验证了双三相永磁同步电机在矢量空间解耦坐标系下的数学模型;针对传统直接转矩控制系统存在转矩脉动大的问题,提出了改进的直接转矩控制策略;提出了合成虚拟矢量的控制抑制谐波电流。 论文在多相电机的数学建模、矢量控制策略方面作了一些工作,具有一定的参考价值。作者能够解决自然科学或工程技术中的一些关键问题。论文体现出作者掌握了与本学科及相关领域一定的基础理论与专门知识。论文结构较严谨,逻辑性较强。论文语言表达较准确、层次分明、图表较规范。体现出作者具有一定的独立从事科学研究的能力。 论文基本达到了硕士学位的水平,建议作为硕士学位论文安排答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +405,论文的选题具有一定的理论和现实意义。银子银行是当前一个比较重要和热门的话题,其发展对我国国民经济的健康有序的增长具有重要的影响,相关的实证研究是较为需要的。文章具有一定的创新型,也在一定程度上体现在作者对本领域学科的基本知识掌握,并能够利用实证模型对现实的数据进行处理,写作方面基本达到了硕士研究生的要求,但是在规范性和学术严谨性方面还需要进一步的改进,详细意见请参照文章不足及建议。,0,1,0,0,1,1,0,-1,0,0,0,1,0,-1 +3066,作者针对基于偏航角反馈的变流场机器鱼姿态控制开展研究工作,选题具有一定的新颖性。作者首先建立了机器鱼的外部流体力学模型和关节动力学模型;接着采用粒子群优化算法对CPG中涉及航向调整的参数进行优化;然后采用BP神经网络生成训练数据。论文给出了仿真结果,成果对于开展机器鱼姿态控制研究具有一定的参考价值。论文结构合理、层次分明、逻辑较严谨、文字较通顺、格式较规范,总体来说,论文已达到硕士学位论文水平。论文存在的不足:1.文中仅提供了仿真结果,若有实验结果将更能体现研究价值。2.论文针对变流场机器鱼姿态控制开展研究,然而变流场突出一个“变”字,文中未提及变流场的影响,没有相关工作。3.仿生机器鱼的姿态控制在变流场中不仅仅是偏航角,还有其它参数,文中鲜有提及。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1929,论文针对目前经营环境的多变带来的不确定性,选择研究不特定性对企业投资效率的影响及其程度,主题选择具有明确的理论和实际意义。 文献收集整理较充分,总结较全面。 论文围绕主题,收集数据,首先实证检验了环境不确定性对企业投资效率是否产生影响及其显著性;其后,加入管理者能力,检验了管理者能力对上述主题的调节作用。研究得出环境不确定性显著影响了企业投资不足和过度投资,且管理者能力缓解了二者的显著作用。研究方法规范,研究过程设计合理,所得研究结果具有说服力。说明作者具备了专业领域相关知识技能,具有独立的从事研究设计的基本能力。 论文表达流畅,格式规范,符合硕士毕业论文要求,达到硕士毕业论文水平,同意组织答辩。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +2671,论文是以卡特福德的转换理论为指导,对《汽车维修保养手册》的第十二、十三章的英译汉翻译实践报告。该报告结构较清楚,占有一定的文献资料,对翻译转换理论的国内外研究现状进行了研究并付诸实践,工作量适当。但论文存在以下不足:1.论文未表明该翻译项目得到了《汽车维修保养手册》的作者的授权,所以对该项目的翻译要求也不客观、明确;对为何选择十二、十三章来翻译未做出充分的客观说明;2.应该用理论来指导实践,而不是用实践来证明理论,所以论文摘要和项目意义的个别表述值得商榷;3.在论文2.1.1部分罗列了几篇平行文本后,应对这些平行文本进行总体分析和归纳;4.2.1.3翻译理论选择部分应分析选择转换理论作为翻译指导的原因,但该部分第二段讨论的却是在实践中如何根据理论来选择翻译策略,显得有点文不对题;5.案例分析只对翻译中的词汇、短语和句子进行了分析,未涉及段落、语篇等层面,论证不够有力;对案例分析时应进一步加强分析和卡特福德的转换理论的有机结合;6.论文还存在少量的语言错误(第6、7、15、18、26页等)和不严谨的地方。譬如书名只用大写加斜体,不用加双引号;案例后的分析不用每次都写上Analysis一词;案例分析时最好不用we等表示第一人称的单词;7.个别地方的译文质量有待提高。譬如例24的译文把“是……的”去掉更符合科技文本的翻译风格。综上,建议修改后答辩!,0,0,1,1,0,0,0,-1,1,0,0,0,0,0 +2801,论文研究问题体现了专业性,很有意义;研究设计合理,方法得当,论证充分,达到了硕士学位论文水平。论文存在的问题及不足之处:1.调查涉及到的一些数据没有充分应用,比如照顾者文化水平,年龄,身体健康状况等。2.风险性因素和保护性因素的分析,有一些因素在后面干预中没有体现。3.小组活动设计的较随意,没有理念和根据的说明。4.校对不够认真,存在一些错误:12页,对应Kummpfer抗逆力模型39页,年纪大的组员不太会使用职能手机的问题41页,组员纷纷回忆当初办理低保时所遇到的事情中,0,1,0,0,0,0,0,0,-1,1,-1,0,0,0 +428,"论文对原油输送过程控制PID调节方法的电学模拟进行了研究,选题具有较好的应用背景,具有良好的研究价值。论文以一种系统模拟的思想,分别用MATLAB 和Altium designer 对温控PID 调节系统和电学RLC串联谐振进行模拟,分别作出温控PID 调节系统和RLC 串联谐振回路响应曲线,并且对比其特征值;搭建了简易的原油温控PID 调节系统,试验验证模拟效果;采用MATLAB GUI 完成原油温控数据采集平台人机界面及串行数据通信,实时采集下位机数据,绘制温度及PID 曲线,进行了原油温控PID 调节系统的PI 调节试验,验证了有过冲和零过冲温控试验系统的各项性能指标。论文取得成果充分说明了论文作者已经具有了本学科的基础理论和专门知识,工程实现能力强,具有一定的创新性。论文写作规范,逻辑性强,语句通顺,已经达到了硕士学位论文的要求,建议提交论文答辩。",0,1,0,0,1,1,1,1,1,0,0,1,0,0 +530,论文研究了压铸成型的超高强度铝合金的工艺的性能和材料成形性能。选题具有很大的工业应用背景。论文对Re改性AiZnMgCu合金的组织与性能进行了实验研究;通过热裂试棒方法研究了材料的热裂性能与Re含量的关系;研究了挤压工艺对材料性能以及压铸铝合金的固溶+时效下的组织与性能。 作者具备材料科学与材料加工领域的基本知识和独立分析问题和解决问题的能力。论文写作规范,层次分明,语言表达清晰。,0,0,0,0,1,1,0,1,0,0,0,0,0,0 +1273,风力发电机机舱罩装配平台的研究对于机罩的生产效率有较高的实用价值。作者查阅了相关文献,了解了国内外研究动态,明确了课题的研究目的和内容。 论文的主要工作如下:设计了机、液、气相结合的风力发电机机罩装配平台的基本结构;建立了装配平台倾斜液压缸的数学模型,并利用PID及模糊自适应PID控制策略进行仿真;开发了基于Labview的计算机检测系统。 论文写作比较规范。,0,1,1,0,0,0,1,0,0,0,0,0,0,0 +1424,该硕士学位论文基于沈阳地区典型建筑热负荷计算结果和当地风电特点提出了一种风电热泵混合储能供热方案,基于粒子群算法建立了混合储能供热系统的设备优化程序,对系统设备容量配置及其经济性进行了研究;并利用Trnsys建模分析了系统整体运行效果。论文选题切合风电蓄能利用的时代背景,具有一定的工程应用价值;论文文献综述部分基本涵盖相关领域研究现状,对论文研究内容的相关说明较为清楚,但技术路线略显混乱。 但是就论文整体研究内容来说,目前存在研究对象不明确(论文2-5章所研究的系统存在差异)、对数学模型的合理性说明不足、研究结论可信度不高(尤其是系统配置成本)、理论分析薄弱等问题;同时论文写作存在逻辑性差、错字/别字多、主观性描述过多、重复性语句过多、图表不规范等问题。 综上所述,评阅人认为,该学位论文仍需下大力气修改和完善;不同意答辩。,0,0,0,0,0,0,-1,0,-1,0,0,0,0,0 +22,《物流的生态哲学解析》一文,选题具有重要的理论与实践意义;体现出科学研究与时俱进、关注当下人和社会的发展的良好品格。文章自身逻辑是自洽的,结构也是合理的,条理也比较清晰。但是,由于是开创性研究,也就存在着一些值得推敲的问题;包括“物流”的定义,“自然界中的物流远远先于人类产生,这是物流的起源也是物流的天然属性。自然物流是最早存在着的物流现象。在人类社会以前,就有的自然界的物流现象,宏观的固体、液体和气体三种”的提法,“物流的自然本质表现为自然界中的能量流动,即在自然界各个圈层的能量流动”的提法,等等。哲学上,世界由“物质,运动,信息”“三元构成”,物质与能量既有区别又有联系;物流本质上是在信息引导下传递(运动)的“物”。物流是“目的性”的。在计划经济中,它之所以产生,是为了满足社会和人的需求。在市场经济中,它之所以不断创新性地发展,不仅是为了满足社会和人的需求,更是为了“赢利”。 因此,说“古希腊先贤赫拉克利特的‘万物流变学说’可以看成物流意识的萌芽”是不恰当的。这样的“联系”太宽泛。 引文有不规范和文字错误。例如p14:“李世雁,张建鑫.关系性---过程性原则的逻辑必然性[J].自然辩证法,2012(10) :25.”中,应为“自然辩证法研究”。“彭前程.物理[M].北京:入民教育出版社,2016:66-67.”中,应为“人民教育出版社”。,0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +173,采用可控励磁直线同步电动机作为磁悬浮进给平台,可以消除非线性摩擦力对系统的影响,论文以高精度数控机床为应用背景,针对控制系统中存在参数摄动和不确定性扰动的问题,设计了鲁棒滑模控制器,并对滑模控制策略进行了改进,进一步提升了系统性能。 论文选题具有一定的应用价值,文献综述能够反映国内外该选题及相关领域的发展与现状。 论文的主要研究成果: (1)对可控励磁直线同步电动机的运行机理进行了分析,建立了可控励磁直线同步电动机的数学模型,推导出了水平电磁推力、磁悬浮力的解析表达式。 (2)设计了可控励磁直线同步电动机滑模控制器,在提高系统动态响应的同时,提高了系统的抗扰能力,使系统对参数摄动或外部不确定性扰动具有良好的不敏感性。 (3)改进了传统快速Terminal滑模控制,设计了可控励磁直线同步电动机全局积分Terminal滑模控制器,对全局积分Terminal滑模控制算法进行了仿真分析。 (4)搭建了可控励磁直线同步电动机控制系统的仿真模型,对系统的起动过程和带载过程进行了仿真,分析了可控励磁直线同步电动机控制系统的耦合现象。 论文工作表明作者较好地掌握基础理论、专业知识和研究方法,具有一定的独立从事科学研究的能力。 论文条理清晰、文字通顺、图表规范;材料真实、结论合理;概念清晰、分析严谨、逻辑性强。,0,1,1,0,1,1,1,1,1,0,1,0,0,0 +2115,与传统的钢铁、铝材相比,镁合金具有密度低、比强度高、抗电磁干扰好、铸造性好、加工性能优良和再生性好等优点,镁合金在汽车、航天、电子和医学等行业都有广泛的应用。但镁合金存在凝固区间较宽、凝固收缩率较大等缺点,导致镁合金铸件在凝固成型过程非常容易形成热裂纹,因而制约了其更广泛的应用和发展。本论文《Mg-Zn-Y(-Gd)系合金的凝固行为及热裂敏感性研究》以Mg-xZn-2xGd合金和Mg-xGd-(2-x)Y-Zn合金体系为对象,重点研究镁合金凝固过程、热裂形成机理和热裂敏感性,这对打破镁合金的发展瓶颈具有重要的作用和实际意义。因此,论文选题新颖、有价值;研究成果对开发镁合金的潜在应用具有重要的工程价值和理论指导意义。 论文的主要工作及创新之处在于:(1)采用Clyne-Davies 理论模型对Mg-Zn-Gd(-Y)系镁合金的热裂敏感性进行评估;(2)较系统地研究了第二相析出温度和数量、枝晶搭接温度以及对应的固相分数等因素对Mg-Zn-Gd(-Y)系镁合金热裂敏感性的影响。结果发现:合金组织中析出的第二相数量越来越多,热裂发生的趋势降低;枝晶搭接时间越晚,枝晶间补缩通道越短,合金的热裂倾向性越低;晶粒细化程度和凝固温度范围逐渐减小,这是降低了合金的热裂敏感性的根本原因。 论文相关文献收集较为齐全,对本课题的国内外研究动态的掌握较为全面,并清楚地论述了本论文所要解决问题的目的及意义。论文实验方案可行、技术路线合理;论文撰写较为规范、图表清晰、分析较为严谨;数据真实、结论正确。表明作者掌握了较扎实的理论基础和专业知识,完全具有独立从事科学研究工作的能力。 鉴于以上事实,该论文达到了硕毕业论文的要求,同意答辩。,0,1,1,0,1,1,1,0,1,1,1,1,0,0 +166,本文主要对开放式大气激光通信系统进行了研究,分析了信道模型,在该信道模型的基础上,研究了提高通信质量的 LDPC 编码算法和PPM 调制技术,研究了 LDPC 码校验矩阵的构造、编码方法、软判决译码技术;搭建了实物平台对调制解调、编译码算法进行了验证。论文写作逻辑严密、规范,选题合理,具有一定的理论价值和应用前景。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +2195,"作者主要研究了自旋电子学材料领域中的典型材料——赫斯勒合金,基于密度泛函理论(DFT)第一性原理计算方法,利用材料模拟软件CASTEP,研究了两种结构类型的全赫斯勒合金,即Cu2MnAl型全赫斯勒合金Cr2VSb和Hg2CuTi型全赫斯勒合金Cr2MnSi,以及以两种结构为基础的四种四元赫斯勒合金。分析了几种材料的晶体结构及相关物理性能,包括结构稳定性、半金属性、磁性和力学性质。 (1)Cu2MnAl型Cr2VSb合金具有半金属性,其晶格常数范围在5.936~6.286?之间,半金属性会随着晶格常数的变化(应力作用下的形变)而改变。磁性主要来自于合金内Cr-3d 和V-3d 轨道电子的自旋以及他们之间的相互作用,随着晶格常数的变化,Cr原子和V原子的磁矩呈现反向变化趋势,表明两种原子的磁矩为反向耦合关系,但总磁矩保持不变。在力学性质方面,Cr2VSb合金表现为具有延展性的各向异性材料。 (2)四元赫斯勒合金CrCoVSb为亚铁磁性材料,一种半金属材料。磁性来自于Cr-3d、Co-3d和V-3d 轨道的电子自旋以及三个轨道上电子之间的相互作用。合金的总磁矩为 1?B,随晶格常数的变化保持不变。CrCoVSb 合金的力学性质与Cr2VSb 相近,也是一种具有延展性的各向异性材料,但Co-V和Cr-V之间形成共价键的趋势更加明显,说明Co替换可以强化合金的结构稳定性。 (3)合金CrXVSb(X=Ir, Rh)亚稳态表现出半金属性,具有100%的自旋极化率。合金的半金属性都会受到体积膨胀的影响,晶格常数分别大于6.381?和6.350?时,两种合金将失去半金属性。基态和亚稳态合金的磁性均来自于过渡金属原子的d 轨道电子的自旋以及它们之间的强相互作用。在力学性质方面,基态CrRhVSb 是延展性的各向异性材料,其他三种合金属于脆性各向异性材料。 (4)合金Cr2MnSi及其四元合金Cr2-xFexMnSi(x=0, 1, 2)的物理性质。研究发现合金均为半金属性材料,随着Fe原子数目的增加半金属带隙变大;Cr2-xFexMnSi (x=0, 1, 2)合金的总磁矩分别为1?B,-1?B和3?B,并且随着晶格常数的变化波动很小,磁性主要来自于合金内过渡金属原子的d 轨道电子的自旋和相互作用。在力学性质方面,Fe原子数目的增加可以提升合金的刚性和硬度,Cr2-xFexMnSi (x=0, 1, 2)合金均为延展性的各向异性材料。 论文选题新颖,对自旋电子学的发展提供了更多的理论支持和可能性,具有重要的研究意义和价值。作者所引用的文献具有代表性和科学性,对相关文献材料进行综合分析和归纳整理。论文研究方法合理,研究思路清晰,研究内容丰富,研究结果明确,反映出作者具备较扎实的基础知识。论文格式正确,结构严谨,书写规范,语言流畅,逻辑严密,反映出作者具备一定的独立从事科学研究工作的能力。论文总体优秀,已经达到博士学位论文水平,同意答辩,并建议授予博士学位。",0,1,1,1,1,1,1,1,1,1,1,0,0,0 +2355,本文以创业板企业为研究对象,构建基于趋势外推法的FCFF和模糊B-S组合模型对其进行价值评估,并以创业板19家企业为案例进行价值评估的对比分析,结果表明具有良好的评估效果。文章选题合理,论述清楚,结构较为完整,具有一定的理论意义与实践意义,达到硕士学位论文水平,然而仍存在以下问题:1、研究现状中存在文献堆砌的问题,建议重新梳理相关文献并进行归纳总结。此外,文献评述较为简单,层次不够清晰。2、理论基础的论述较为简单,建议补充其与本文研究内容的关联关系。3、建议在第三章中增加一个价值评估方法的对比分析表。4、第五章中样本企业的选取过程论述不够清晰。此外,第五章内容较为分散,建议进行合并。5、建议增加每章小结。,0,1,-1,0,0,0,0,1,1,0,0,0,0,0 +1420,该硕士学位论文“基于人体细胞内外液容量的胃动力测量方法研究”,选取胃动力测量和评估作为研究重点,在分析了目前胃动力测量方法优缺点基础上,设计生物电阻抗测量系统,通过分析摄水前后的阻抗变化,计算细胞内外液容量变化情况,以此评估胃动力水平。该选题在胃肠疾病诊断领域中具有一定的理论研究意义和实际应用价值。论文作者查阅了大量本领域相关文献资料,对本领域国内外研究动态有很好的掌握,并对相关文献进行了综述。本论文选题新颖,内容明确。 论文总结分析了现有胃动力评估方法的优缺点,将摄入纯净水后胃排空的过程生物阻抗变化作为切入点,设计了多频率生物阻抗测量系统,采用四电极法,对摄水前及胃排空过程的电阻抗变化情况进行记录。同时,运用改进的莫斯尔方程计算人体细胞内外液容量,建立与胃动力之间的定性关系。最后设计实验,验证了系统的有效性及胃动力评估方法的正确性。该生所做研究为胃动力的测量以及评估提供了新思路、新方法。 该学位论文写作条理清晰,层次分明,文笔流畅,符合科技论文写作规范,是一篇较高水平的硕士学位论文。该同学的论文达到了硕士论文答辩要求,建议组织答辩。,0,1,1,0,0,0,1,1,1,0,0,1,0,0 +883,CBA后卫进攻技术特征研究—以2021-2022赛季季后赛为例该论文框架基本合理;整篇论文格式符合规范;论文字数教少,工作量不大;修改一些内容,但该论文出现的问题是,论文类似调查报告,没有假设或者拟解决的问题,因此思路混乱,只是单纯的描述数据,这种描述对后卫以及后卫进攻的技术模型没有意义。数据的呈现模式几乎都是平均值和百分比,在平均值和百分比之间进行大小的比较没有统计学的意义,对现实的价值也较弱;论文中一些概念的界定需要有引用;论文中表格的格式需要统一,对数据的描述需要认真仔细。,0,0,-1,-1,0,0,1,0,-1,0,-1,0,0,0 +1763,论文研究了基于数据驱动的水下机器人海洋环境观测问题,选题具有重要理论意义和实用价值,属于本学科热点领域。论文主要工作有: 1)论文针对基于水下机器人集群组成的海洋环境观测网络采集的相对于高维海洋环境状态稀疏的现场观测数据,对海洋环境进行估计和预测方法进行研究。动力学模态分解方法及基于动力学模态分解的海洋环境建模和预测方法,对海洋环境温度、盐度、海流的低维特性和多分辨率特性、以及基于主导模态实施海洋环境估计与预报进行了分析和仿真,并提出一种数据驱动的海洋环境自适应建模策略。 2)针对基于动力学模态分解的海洋环境模型和水下机器人网络现场观测数据对海洋环境状态进行最优估计,建立了优化问题的模型,并提出一种基于强化学习的水下机器人网络观测位置优化求解方法。 3)针对水下机器人对其中锋面等水平梯度特征实施自适应观测以实现海洋特征进一步精准认知和预测需求,研究了水下机器人对锋面等水平梯度特征进行追踪和测绘的自适应观测方法,提出一种水下机器人对动态特征进行追踪和测绘的运动规划策略,并基于一种基于行为的运动规划器设计了一种水下机器人对动态特征进行追踪和测绘的运动规划算法。 论文写作认真,图表规范,工作量饱满,达到了硕士学位论文要求,是一篇较优秀的硕士学位论文,同意进行硕士学位论文答辩。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +636,论文针对汽车用差速器行星齿轮开展了参数化设计及动力学研究,有一定的创新性,但是论文书写不认真,前后逻辑不清晰,且分析结果缺乏必要的实验验证。鉴于当前论文工作所存在的问题,不建议进行答辩。论文所存在的主要问题如下: 1. 语言表述极其不通顺,口语化词汇太多。 2. 引言部分,没有充分的描述差速行星齿轮参数化设计的研究背景,国内外研究现状,以及所面临的关键核心问题。 3. 第二章中,变量符号的书写格式不规范,且很多变量没有给出明确的定义。本章结束时, 应列有本章小节。 4. 第三章中,段落格式不统一,行距不一致,图片不清晰。本章结束时, 应列有本章小节。 5. 第六章中,对行星齿轮开展了有限元的CFD分析,但是分析的目的不明确,且对于分析结果,没有给出进一步的讨论和解释。 6. 对于所设计的行星齿轮和有关的计算结果,缺少必要的实验验证。,0,0,-1,0,0,0,-1,-1,0,-1,-1,0,0,0 +1494,"航天制造业是国家安全保障和国家经济发展的支柱性产业之一,航天复杂构件品种多、单件与小批量混合、多型号交叉并行导致机床刀具异常情况频发、刀具磨损信息多源异构且复杂多变,进而造成制造过程刀具利用率低、生产稳定性较差等问题。论文针对多品种小批量航天企业生产线机床刀具磨损监控技术问题,综合运用数据处理与数据挖掘技术、深度学习网络的研究方法,建立了多品种小批量生产线刀具异常监控模型,以某航天企业生产线为例进行生产线机床刀具状态识别,验证了模型与方法的有效性与可靠性。 论文选题有重要的实际应用意义,论文写作逻辑性强,写作规范,体现了作者具有一定的学术研究能力,作为技术问题研究方面的论文,符合硕士论文的要求。但作为工程管理类的硕士论文,应该技术研发应用为工程管理服务, 论文缺乏工程管理问题方面的研究论述,希望修改后答辩",0,1,0,0,0,1,1,0,1,1,0,0,0,0 +1656,论文逻辑上,语言书写等方面都存在很大的题。参考文献引用不规范,物理量公式书写也有很多不规范之处。摘要首段甚至没有主语,短短的致谢部分也存在多处错别字。论文选题的创新性与重要性作者也没有论述。例如作者为何选择八层的对称性与非对称性结构进行研究,此研究与前人工作的关联,创新性何在?作者甚至都没有说明自己研究的是那种材料的磁性薄膜,薄膜的厚度是多少。这距离一篇严谨的,有创新性的硕士学位论文还有很大的差距。,0,-1,0,0,0,0,-1,0,-1,0,0,-1,0,-1 +1142,本文对以乙烯裂解装置的抽余C4为原料,采用异丁烯二步氧化法生产甲基丙烯酸甲酯,并副产1-丁烯及异丁烷的过程进行了工艺设计与优化,选题具有重要的应用价值和实践意义。 论文主攻方向明确,文献综述较全面,研究立论基本正确,方案合理。论文文笔较流畅,结构介于设计与论文之间,不够清晰合理。论文中一些数据的选择缺乏充分的依据,能显示作者具有一定的专业知识和科研工作能力,同意作者以该论文修改后进行论文答辩。,0,1,1,0,1,1,0,1,0,0,0,0,0,0 +2388,本文针对数据资产特点,构建了多期超额收益法结合组合赋权法的价值评估模型,并引入熵值法对层次分析法降低其主观随机性,对代表性企业芒果超媒进行数据资产评估,选题具有重要的现实意义。文章逻辑结构安排较为合理,论证过程较为严谨,论据较为充分,研究成果具有一定应用价值,相关建议对实践有一定指导意义。由于数据资产一种新兴的资产类型,数据资源的资产化具有较大的不确定性,文中给出修正的层次分析法方法具有一定的适用性但仍有较强主观性,评估结果缺乏市场的有效验证,建议可与用实物期权定价、蒙特卡洛模型等的分析结果进行对比分析,以在一定程度上验证结果的可靠性。文章总体达到硕士学位论文水平,同意答辩。,0,1,0,0,0,0,0,0,1,0,0,1,0,0 +34,1.选题属于本学科的研究热点之一,具有一定的研究价值和现实意义; 2.论文内容与论文题目吻合度高; 3.对相关文献的综述较为规范,文献基本涵盖了相关的主要研究; 4.对相关理论进行了必要的阐述,依据的理论与本文研究内容具有相关性; 5.采用实证研究方法,研究设计合理,研究思路清晰,理论推演符合逻辑; 6.论证方法恰当,样本筛选过程严谨,论证过程完整规范; 7.论文整体框架结构合理,章节之间有较强的逻辑性; 8.层次分明、语言准确,格式符合学术规范。 论文整体体现出作者具备了较好的理论功底、专业知识水平和研究能力。,0,1,1,0,1,1,1,1,1,1,0,0,0,0 +2269,"本论文详细研究了三种类型的3D打印用胶粘剂,包括高岭土粉末、陶瓷砂粉末、贺州大理石粉末,并对其进行了黏度、pH、抗拉强度等多种性能的测试,得出了最佳的条件。论文选题具有较强的实际应用价值,具有较强的前瞻性,符合精细化工的培养目标。论文工作量足,书写基本符合科技论文规范,数据详实可靠,达到了硕士毕业水平,同意修改后参加答辩。修改建议:1)论文格式方面,还存在少量问题,例如,温度的符号,oC,在文中出现了至少两种形式,另外,单位和数值之间需要有空格,有的没有;按照目前最新的规范写法,pH值后面的“值”不需要了;参考文献格式还不统一,例如有的起始页码和终止页码都写了,有的只写了起始页码等,请再认真全文检查细节方面的问题。2)文中介绍了三类3D打印胶粘剂,研究的方法是类似的,并且看起来是相互独立的,请详细介绍一下这三类胶粘剂的相互关联,使论文结构更加紧凑。3)目前市场是是否有相关的3D打印胶粘剂,请与之对比分析,文中的优缺点,以及将来的应用前景。",0,1,0,1,0,0,1,0,0,0,0,1,0,0 +3031,装载机的斗尖运动轨迹直接影响着装载机的铲装阻力、铲装效率、铲装油耗及满斗率等参数和性能。同时,铲装轨迹的重复性可提高铲装作业的稳定性和可持续性,提升对装载机使用寿命的可预测性。研究装载机斗尖运动轨迹对实现装载机的自主铲装作业智能化有着重要的理论价值与现实意义。论文通过设计实验方案并进行装载机自主铲装试验,获得铲装油耗、铲装质量、铲装时间等基础数据,利用相关性数据分析方法,分析了铲装深度、装载机自身性能与铲装效率、油耗之间的相关程度,采用5种插值方法,在装载机各工况的条件下寻找铲装深度与效率、油耗之间相适合的插值方法,近似且直观的反映出铲装深度与效率、油耗的函数关系,进而对寻找高效率低能耗的铲装轨迹进行了研究。研究方案可行,研究方法得当,论文撰写思路清楚、观点明确,研究结论具有一定的应用价值。论文达到了硕士学位论文的水平,建议进行硕士学位论文答辩。论文尚存在以下几个问题,供作者修改参考:(1)P2-P3“1.2.1国外研究现状”部分,参考文献[5]的作者HuangJianfei、参考文献[6]的作者WangXiaobang、参考文献[8]的作者MengYu,所在单位均为“China”,不应该列入国外研究现状部分;(2)标点符号、错别字等小问题,例如:第1章的P5第3行“常绿,胡旭宇等人对...”中,标点“,”应为“、”;第1章的P5倒数第5行“1档”、P6第1行“1档”、第2章的P3第10行“1档”中的“档”应改为“挡”;(3)排版中的问题,例如:每章的页码应该连续排,不能“另起炉灶”;第1章的P5页面下部、P6页面上部几段的段首应该缩进;第2章P6页面下部、P7页面的每段段首应该缩进;第2章的P5图2-7左上正文中的变量“h”应为斜体;第3章的P11、P12,第4章的P3、P5,第5章的P9,底部页面留空白偏大;第5章的P14底部两段正文的行间距明显不一致;(4)图片、表格中的问题,例如:第2章P2的图2-2建议去掉底纹颜色;(5)语义表达方面的问题,例如:第2章P3倒数第2行“如下图所示。图2-5中,1为车载电脑,3为数据采集仪”,应重新组织语言;(6)第3章的P2公式(3-1)、(3-2),第5章的P1公式(5-1)、(5-2),P4公式(5-3)、(5-5),各公式的符号说明部分,采用“其中:”、“...为...”、“...一...”、“...表示...”等,与其它地方撰写风格不同,格式不统一;(7)部分参考文献列写不规范,缺少页码、或卷期等信息,如:[5]、[6]、[8]、[9]、[10]、[12]、[13]、[16]、[17]、[26]、[40]、[49]、[52]。,0,0,0,0,0,0,-1,-1,1,1,0,1,0,0 +2487,该论文以减少气体污染物的排放量达到保护环境的目标,采用第一性原理方法来模拟计算钠基、钙基、钾基蒙脱土表面或层间吸附二氧化硫、二氧化氮、二氧化碳气体,通过模拟计算的结果进一步分析三种蒙脱土吸附气体污染物过程中蒙脱土的吸附能、结构、力学性质变化和被吸附气体的结构变化,以及吸附不同气体对蒙脱土造成的不同影响。整体而言,论文逻辑结构较清晰、语言表达通顺,写作较规范。但存在一些不足之处建议修改。1、目前关于蒙脱石的试验技术、机理分析及模拟技术尚未深入总结,目前有什么不足之处,为什么选用这三种蒙脱石进行研究,后文为什么采用VASP软件包进行研究。2、第二章缺少总结性的小结,3、第三章中VASP软件是本文模拟的关键性工具,文中应进行必要的介绍以及详细的介绍如何建模及参数设定等,另外,第二章在后面几章的作用是什么?4、模拟结果缺乏与试验数据的对比。5、建议第三、四、五章的小结进行深入凝练总结,总结出相应规律,另外结论不建议出现表格,把相关实验现象进行分析,总结规律。6、钠基、钙基、钾基蒙脱土表面或层间吸附二氧化硫、二氧化氮、二氧化碳的吸附机理是什么,文中未进行很好的分析。,0,0,0,0,0,0,0,-1,1,0,0,0,0,0 +948,论文题目修改为“歌曲《又唱浏阳河》中湘方言的运用于演唱研究”。论文选题与学位研究方向一直,符合相关要求。文章能结合自身的演唱实践,运用一些相关的理论知识,展开论述。文章分为4章,逻辑较清晰,条理较明晰,作者具有一定用文献收集与总结能力。也结合了一些相关作品加以阐释,力求一目了然,论述比较通顺。绪论修改合理。论文总体研究良好,修改比较充分。建议对主题的研究建议,进一步深入开展研究,进一步挖掘,实现更深入的理解。,0,1,1,0,0,0,0,1,1,0,0,0,0,0 +2274,本论文选题有一定研究价值;相关概念界定清晰,引证资料丰富、准确,论证分析方法适当,语言表述较为准确、流畅,有一定层次结构,体例基本规范。体现作者具有相应的科研能力。符合本专业硕士研究生学位论文的相关要求。本文在写作中还存在些微不足:1,这是一篇案例研究的论文,最好在副标题中加以说明以哪个企业为例;2,相关概念与理论概述,最好概念与理论分开表述;3,文献综述的主流写法已经不区分国内外了,以观点综述;,0,1,-1,0,0,1,0,1,1,0,0,0,0,0 +1858,论文在分析研究室内超声波定位技术存在盲区、噪声和包络信号等问题的基础上,将超声波顶技术与航迹推算定位技术组合而成一种新的定位系统,对移动机器人进行了数学建模,采用数字放大锁相法对超声波降噪处理,采用扩展卡尔曼滤波组合算法,对航迹推算算法、超声波定位算法以及扩展卡尔曼滤波组合算法进行定位仿真实验,结果表明设计的定位系统定位效果较好。 论文选题合理,技术路线可行,仿真结果正确。,0,1,0,0,0,0,0,0,0,1,1,0,0,0 +2178,作者基于有限元法和实验对比方法,研究了不同制造方法获得的锻造和EBM制备的医用Ti-6Al-4V试样的摩擦学性能,包括锻造、EBM成型三种不同机构式样,得到干摩擦和体液润滑摩擦条件下不同试样的摩擦学性能参数;论文工作是对医用Ti-6Al-4V植入体结构选择的有益的探索,研究方法有一定参考意义。,0,1,0,0,0,0,0,0,0,1,0,0,0,0 +1302,该论文基于对现有文献的梳理,在对变量之间的关系进行分析的基础上,提出了研究假设,并设计了结构方程模型。利用问卷调查采集到了变量数据,并使用 SPSS 和 AMOS 统计分析软件,对假设进行了检验。论文研究方法得当,采用的研究工具具有一定的科学性。可以看得出,作者下了不少功夫,花费了大量时间。但在研究设计上出现了少量偏差,导致论文的科学性和研究成果的可靠度在一定程度上有所降低。,0,0,0,0,0,0,0,0,0,1,0,-1,0,0 +1313,该论文提出一种多尺度特征融合的多模态心功能信号分类模型,能够自动提取心阻抗微分信号与心电信号的深层特征,用于评估不同状态下的心功能信号。结果表明,该模型的测试集平均准确率高,且漏诊和误诊概率低,对于临床心脏相关疾病的检查、预防和早期治疗具有应用潜力。选题具有一定的理论和应用价值。 作者在充分查阅相关文献的基础上,通过数据采集和信号预处理,提出基于多尺度特征融合的心功能信号分类模型并开展验证。论文条理清晰,理论分析可信,分类数据可靠。不足之处: 1、文中只用了心阻抗与心电信号两个模态,所以只能称之为双模态心功能信号分析 2、论文的书写有待提高,文中有诸多处语义不明,如21页“。。。因为受试者每次的心动周期都有变化,为统一后续模型输入,统一分段结果的采样点。”语义的表达似未说完。等等。需要将整个论文的书写包括断句、语法等仔细修改。,0,1,1,0,0,0,0,-1,1,0,0,0,0,0 +617,论文针对光伏直流升压汇集系统的拓扑结构及控制策略开展研究,综合考虑变换效率、应用范围、控制难度等因素,给出了适用于高压大容量分散型光伏直流升压系统和集中型光伏直流升压系统的变流器设计方案。研究了模块化多电平换流器MMC拓扑结构及控制策略。基于仿真模型,分析了不同工况下上述变流器的运行特性,验证了主电路的正确性和控制策略的有效性,为光伏电源系统设计提供了依据。论文主要观点正确,写作较规范,能够正确运用专业知识,达到硕士论文水平,同意提交答辩。,0,0,0,0,1,1,1,0,0,0,0,0,0,0 +1849,论文应用多物理场耦合方法对变压器空载振动噪声进行了多物理场仿真计算,得到了不同故障情况下变压器的振动噪声信号特征,并通过实验对仿真结果进行了验证。论文工作具有较强的现实意义,可为后续变压器的在线监测和故障诊断工作提供依据。论文作者运用的理论知识、研究方法和实验手段符合实际情况,理论论证较严密,实验设计较合理,方法和数据较为正确可靠,反映出作者较好地掌握了基础理论和专业知识,具有独立从事科研工作的能力。论文观点正确,条理性好,层次清楚,有逻辑性,文笔较好,文字图表较规范,符合硕士学位论文的相关要求。,0,0,0,0,1,0,1,1,1,0,0,0,0,0 +389,论文采用激光熔化沉积技术在35CrMo基材表面制备三种不同C含量的CrNiV合金钢沉积试样,通过光学显微镜、能谱仪、电子背散射衍射等方法分析了沉积层不同高度和不同C含量合金的组织,采用显微硬度计、纳米压痕仪等设备测试了合金性能的演变规律,具有一定的理论和实际应用价值。论文写作规范,在组织和性能分析方面有一定的逻辑性,对材料学科知识的掌握上一定的理论基础和分析能力。,0,0,0,0,1,1,1,0,1,0,0,1,0,0 +1412,该生以光储微电网为研究对象, 采取主从控制, 提出了一种以储能换流器为主控制器的双模式控制策略,并对原有的双模式控制策略加以改进来提高控制的精度。实现了微电网运行模式间的无缝切换, 引入孤岛检测算法和预同步控制, 减小扰动电流对微电网电能质量的影响。 论文论点正确,论据充分,从参阅的大量文献表明了该生具有良好的专业积淀和理论基础;文章结构合理,模型和分析数据详实,结论正确,体现了该生具有较好的科研能力。文章外语应用的较为正确,具备了一定外语应用能力。 整个论文行文流畅,格式较规范,图标符合规定,工作量安排较为合理,综上表明该生已经具备毕业答辩条件,推荐其参加毕业答辩。,0,0,0,1,0,1,1,1,1,0,0,0,0,0 +453,论文论述了永磁无刷直流直线电机的设计及电机性能分析,具有一定的实际应用价值;论文完成了一款永磁直流无刷直线电机的设计和性能计算;分析了产生磁阻力的原因和解决方法,并进行了仿真验证;论文表明作者基本掌握了本门学科的理论知识,并能应用其解决实际问题;论文层次分明,图表规范,符合硕士研究生论文要求,达到硕士论文水平。可以参加论文答辩。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2340,本文研究了球形微粒在圆偏振平面波形成的干涉光场中受到的光力和光力矩,基于广义Lorenz-Mie方法和Maxwell应力张量理论,计算出由多个圆偏振平面波形成的干涉光场可以在球形微粒上诱导一个侧向光力,侧向光力的空间分布模式由入射光场本身的坡印廷矢量决定,而与微粒尺寸和材料成分无关;基于全波模拟方法和多极展开理论,研究证明了球形微粒在由相同偏振的三个波矢或多个波矢构成的干涉光场中可以产生负光学力矩,为以后平面波操控微粒提供了一个新的自由度。评审意见如下:1.该研究从不同的微粒在不同的光场中所受的光力和光力矩的理论计算入手,参数设计合理,数据可靠,得出了较为可靠的结论,对于光学微操控技术在各学科的应用具有一定的理论指导意义,有一定的创新性。2.论文作者掌握了光学微操控领域相关的基础理论和计算工具,广泛搜集了本课题范围内的国内外最新研究进展,具备从事光学微操控领域科研工作的能力。3.论文书写规范,结构合理,文字表达流畅,但少量语句的表达逻辑不够严密,如正文第1页中“光力最直观的形式现在被称为辐射压力”;正文第8页中“可以直观的看出入射光场的散射与光力的示意图”;第10页中“不仅可以通过利用光束对已经识别的微料进行筛选”;第37页中“这是因为这是因为在同一入射光场照射下”……该论文达到硕士学位论文水平的要求,同意答辩!,0,0,0,0,0,0,1,-1,0,0,0,1,0,0 +704,硕士学位论文“环境不确定性、财务柔性与企业竞争力的实证研究”环境不确定性、 财务柔性、企业竞争力等概念.进行了定义,论述了与这些概念相关的理论基础,包括委托代理理论、战略管理理论.、权衡理论与融资优序理论等,设置了两大模型:一是财务柔性与企业竞争力关系模型;二是环境不确定性和财务柔性与企业竞争力关系模型,收集3190的样本数据,进行实证分析,得出的结论是:企业面临的环境不确定性程度越高,企业所需储备的财务柔性越大,环境不确定性与财务柔性有显著正相关关系;财务柔性的提高会使企业持有超额现金或保持过低负债,会导致管理层出现滥用现金引发委托代理问题,产生高额现金持有成本和负债融资成本从而降低企业竞争力,财务柔性与企业竞争力有显著负相关关系;环境不确定性对财物柔性与企业竞争力的负向影响有减弱作用,环境不确定性的提高,使企业有增加财务柔性的需求,但盲目降低负债比率,增加现金持有水平,进而导致现金持有成本和负债融资成本增加,会严重削弱企业竞争力,因此环境不确定性对二者的关系有显著负向作用。这些研究结论有一定客观性。 论文的创新点是:将环境不确定性纳入财务柔性效应的研究框架内,通过“环境不确定性—财务柔性—企业竞争力”的研究脉络,分析环境不确定性对财务柔性与企业竞争力之间关系的影响效果。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +2737,论文选题具有现实价值,论文论据较充分,整体上看修改后能够达到硕士学位论文水平,但是存在如下问题:1、格式是否规范,一般应当章节和小节应该是1、1.1、1.1.1等,论文中的图表数据要注明来源。2、论文题目资产并购视角下,这个视角是什么视角,与文中的市场占有视角、企业能力视角是什么关系,题目多出这个视角在论文中哪里体现?3、第19页腾讯并购搜狗原因,第一部分,介绍了腾讯业务范围,没有说明搜狗带来了哪些业务,优化了哪些盈利结构?4、论文是做并购的企业绩效评价,在论文中第四章第四条使用EVA对搜狗进行企业价值估值与论文什么关系,第五条腾讯企业绩效评价,绩效评价和企业价值估值不是一个概念5、第五章题目也存在问题,论文是做并购的绩效评价的,不是并购案例的绩效评价6、并购绩效评价研究,逻辑上应该并购后并购方、被并购方绩效评价,与并购前的比较。要选择绩效评价的方法和指标,论文中也没有体现7、论文利用ARIMA模型、计算公式法对搜狗公司进行EVA预测,与论文题目是什么关系?是绩效评价的内容吗?并且为何选择两个方法进行预测,目的是什么?8、论文研究结论总结的没有看出任何绩效评价的结论,0,1,0,1,0,0,-1,0,-1,0,-1,0,0,0 +2867,论文以永磁同步电机(PMSM)为研究对象,开展基于滑模观测器的PMSM的无传感器鲁棒控制方法研究。选题具有重要的实际工程价值。首先,为提高永磁同步电机无传感器控制系统的整体控制性能和抗干扰能力,提出一种将改进型SMO与速度环LADRC相结合的无传感器鲁棒控制方法。仿真结果表明:能有效提高转子状态的观测精度,以及电机转速的无传感器跟踪控制性能和鲁棒性。然后,为抑制电阻时变以及外部扰动等不确定性变化对永磁同步电机无传感器控制性能的影响,提出一种能对定子电阻和反电动势进行自适应估计的改进型滑模观测器无传感器控制方法。在负载突变、转速跳变和系统参数时变情况下,通过仿真对比结果验证了该方法的有效性。论文结构完整,语言较流畅,内容充实。格式符合学术要求。论文反应作者专业理论基础好,逻辑推理强,已较好地掌握了本学科的基础理论和专业技能,具有良好的从事科学研究能力。论文已达到硕士研究生学位论文水平,同意答辩,并建议授予硕士学位。论文不足之处:1、缺少实物验证,如果实验室条件允许,建议进行实物验证。2、无传感器控制,在高速段的研究方法比较成熟,低速段是工程实现的难点。作者的应该在低速段展开。建议:应突出在前人工作基础上的创新点。,0,1,0,1,1,1,1,1,1,0,0,0,0,0 +3033,综合评价:改论文基本达到硕士学位论文水平;论文存在的问题:1.选题具有理论和现实意义;2.题目界定为社会工作但实际采用的是个案工作/个案管理,题目界定不够清晰;文献部分资料不足;3.研究设计整体上符合逻辑,但个案工作开展与题目社会网络支持并不完全对应,一定程度存在文不对题的问题;4.整体介入过程尚属合理,具有一定的专业性,但次数较少,资料提供不足;5.语言与格式较为规范,参考文献略显单薄。建议就以上内容进一步完善。,-1,1,-1,0,0,0,1,0,0,0,0,0,0,0 +56,保护农作物已经成为农业生产中一项主要工作,论文针对植保机喷杆系统开展研究。其选题具有较好的实际意义。论文选取特定的植保机喷杆,进行了有限元建模,使用ANSYS进行分析;利用MATLAB对其振动进行了仿真分析,在此基础上,针对喷杆的水平方向和垂直方向的振动进行了鲁棒控制器设计,通过仿真获得验证。其研究的思路、方法正确。从论文所涉及的内容看,该生掌握了控制科学与工程学科相关的理论知识,掌握了相关的软件工具。论文的格式较规范,语言表达较清晰。,0,1,0,0,1,0,1,1,0,1,0,0,0,0 +650,论文针对主动磁轴承转子周期性振动的控制策略展开研究,选题具有较好的研究价值。论文首先分析了磁轴承系统的结构及工作原理,建立了电机转子的不平衡力模型并分析了转子的周期性振动特性;在此基础上,将线性自抗扰控制与重复控制相结合应用于磁轴承系统,建立了磁轴承复合控制系统模型并设计了系统控制参数,通过仿真计算对所提策略及方案进行了相应验证。最后论文设计了以DSP为核心控制芯片的磁轴承数字控制器。 论文写作质量较好,工作量较大,反映出作者具有良好的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意答辩。,0,0,0,1,1,1,1,1,0,0,0,0,0,0 +1599,论文对双括号栅与中央栅共控U型沟道场效应晶体管进行了研究分析,首先论述了可重构晶体管用于神经元突触的发展现状,在此基础上对晶体管进行了结构分析和仿真,最后仿真分析了器件参数的分析变化对器件性能的影响,并探寻了实现器件性能最优化条件。该论文工作对双括号栅与中央栅共控U型沟道场效应晶体管的研究有较好的参考意义,为晶体管的设计优化提供数据参考。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2772,论文选题来源于实践,体现了应用性,符合专业培养方向。研究成果具有较好的应用价值。论文在综述国内外相关研究的基础上,分析了Interbrand模型评价的缺陷,构建了Interbrand改进模型,并通过案例进行了验证。论文逻辑较清晰,结构较合理,语言表达较准确,研究资料较翔实,资料运用较合理,分析较深入,论证较充分,工作量较饱满。但也存在如下问题:1.缺少对品牌相关概念(品牌与品牌价值、汽车品牌价值)在本文中的定义,而非“汽车行业品牌价值”;2.调查问卷的设计依据缺乏交代,调查对象的抽样代表性及数量不足,3.P21页中预期收益(P)确定的理由不充分,如:其一原模型计算沉淀收益采用营业利润减去有形资产利润的税后价值的方式,但是我国汽车行业属于我国的基础制造业,其内部的有形资产比例较高,利用原方法进行计算,有压低品牌价值的嫌疑,并且在实际确定的过程中有形资产的确定具有一定的难度。4.借用电信行业品牌强度测算体系来评估汽车行业品牌强度,行业差距太大,必将导致误差大。5.以东风汽车为案例选择值得商榷。东风汽车产品涉及军用车、重型卡车和乘用车三大类别,且军用车、重型卡车品牌影响力很强。6.论文中存在错别字。如:P43页“第四,由于东风汽车集团的汽车产品设计到了军用车、商用车和乘用车三大方面”中的“设计”,应该为”涉及”。7.基于Interbrand改进的汽车品牌价值评估模型缺乏普适性验证。综上所述,论文达到了资产评估硕士学位论文水平,同意修改后答辩。,0,1,0,1,0,0,-1,0,0,0,0,0,0,0 +697,实现中华民族伟大复兴,离不开全国各族人民的团结奋斗和共同努力。作为我国北部边疆重要的民族区域自治地方,内蒙古自治区民族关系的发展不仅关系中国社会和谐发展的大目标,而且关系到我国边疆的稳定和国家的统一。《构建和谐社会视域下的民族关系研究—— 以内蒙古自治区为例》选题有较好的理论与现实意义,论文结构基本完整,脉络相对清晰,语言较为流畅。,0,1,0,0,0,0,1,1,1,0,0,0,0,1 +477,论文选题符合会计硕士学位论文的方向。论文结合我国市场经济发展的现状,从流动资产、固定资产、流动负债和净运营资本四个角度出发,对国美零售轻资产运行财务效果进行了有效的评价。对于我国与国美相类似企业进行资产运行模式转型时具有一定的借鉴价值。 论文写作态度严肃、认真,结构合理,层次清晰,资料充分,论证科学,观点明确,文字表达准确。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +853, 该翻译实践报告,选取 2017 年出版的《相遇与结婚》一书中的第一部分作为翻译文本,并基于彼得·纽马克的文本类型翻译理论,进行翻译分析。得出了以下结论: 1 依据预备规范,基于“社会文化影响”、“读者预想”、“笔者喜好”、“原 文本的选择”四要素选定此文本作为本翻译实践报告的翻译文本。 2 在初始 规范的制约下,以译入语为导向,笔者将“可接受性”翻译作为译文的翻译取向, 同时也力图保有译文的“充分性”。 3 笔者运用操作规范,选择减译、意译等 合适的翻译策略以使译文更加符合规范. 选题应来源于真实的翻译实践,符合MTI学位论文选题要求。有适当的工作量和一定的研究难度。结构基本合理。论证有一定的逻辑性,译文较为流畅,合乎写作规范。达到了硕士论文的基本要求,建议进一步修改步后答辩。 ,0,1,0,1,0,0,1,1,1,0,0,0,1,0 +1007,(1)选题具有重要的理论意义和实践价值。消费价值观问题确实是一个时代话题,值得研究。该论文选题选择“新时代的消费价值观”为题,将“两山论”作为理论支撑,具有一定的理论意义。聚焦生态消费价值观,处理好经济发展与生态建设的关系具有一定的时代意义。 (2)基本掌握研究现状。该论文对国内外学术界的有关理论成果进行了梳理,基本掌握了学术界研究的概况,对论文解决的问题基本明确。 (3)研究有一定逻辑性。该论文对关键概念进行了解读,对消费价值观的现状,特别是当前消费价值观存在问题的原因进行了重点分析,在此基础上从政府、社会等维度对消费价值观的培育路径进行了重点论述。 (4)写作较为规范。论文写作体现了学生一定的科学研究能力,能够运用一定的专业理论知识分析问题、解决问题。论文行文语言流畅,格式规范,具有一定的逻辑性。,0,1,1,0,0,1,1,0,1,0,0,0,0,0 +2874,论文在对EVA企业价值评估方法进行蒙特卡洛模拟改进的基础上,结合芒果超媒企业的经营实际对其企业价值进行了评估,对指导相关互联网企业进行企业价值评估具有一定的现实意义,反映作者具有一定的科研能力。论文选题较为合理,结构较为清晰,观点较为明确,论据较为详实,论证较为充分,达到了硕士学位论文的水平。论文的不足之处在于:1、互联网企业有各种不同的类型,不是所有企业都适合使用用蒙特卡洛模拟改进的EVA企业价值评估方法进行企业价值评估。2、用蒙特卡洛模拟改进EVA企业价值评估方法是否适合有待商榷。,0,1,0,0,0,1,0,0,1,-1,0,0,0,0 +2022,硕士学位论文《旋转开断方式对真空电弧阳极烧蚀影响的研究》以真空电弧阳极烧蚀模型为基础,使用热流密度作为真空电弧对触头的能量输入参数,结合了质量、能量和动量三种守恒方程,建立了三维真空电弧阳极烧蚀的瞬态模型。针对不同触头材料和不同触头旋转方向,对比不同触头因素的真空电弧阳极烧蚀影响。该论文对实际工作具有一定的指导作用。论文表明作者掌握了具备了较强的运用所学专业知识分析问题和解决问题的能力。论文层次分明,格式基本正确,逻辑性较强,文笔较好。,0,0,0,0,1,1,1,1,1,0,0,1,0,0 +14,《大理岩力学与裂隙特性研究》一文针对锦屏二级水电站深埋引水隧洞开挖过程中高地应力下围岩的岩爆灾害和高水压力下的突(涌)水灾害的两大问题,开展了大理岩力学与裂隙渗流特性的室内试验研究,通过对大理岩破坏裂隙面进行了室内渗流试验,获得了结构面的渗流特性,结合大理岩的数值模拟,分析了大理岩的基本力学性质,揭示了大理岩力学特性。论文选题是国民经济建设中的要研究的热点问题,研究成果对实际工程具有借鉴意义。其主要研究成果表现为: 1、基于三维扫描技术获取了大理岩剪切裂隙面数据,对结构面的粗糙程度作出了定性以及定量的分析。 2、进行了大理岩剪切裂隙径向渗流试验,分析了大理岩裂隙在常法向力下及不同法向力下的渗流特性,证明了在裂隙渗流过程中,法向力相较于裂隙面形貌特征对渗流的影响更为显著。 3、开展了两种应力路径下的大理岩剪切试验研究,给出了大理岩试样在不同应力水平下的破坏特征,分析了大理岩数值试样在单轴压缩条件与剪切条件下的破裂演化过程,揭示了大理岩力学特性。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1565,论文采用卷积神经网络算法研究复杂环境下交通标志识别问题,选题有重要应用价值。论文的主要研究内容和创新工作有: 1. 针对在复杂环境下交通标志图像不清晰造成特征提取困难问题,提出一种改进的 Inception 模块。该模块通过三条支路采用不同的卷积核并行卷积的方式进行图像特征提取,并将每条支路提取的特征进行融合,避免了某些重要特征丢失。实验结果验证了改进 Inception 模块在复杂环境下交通标志特征提取能力要强于传统的卷积方式。 2. 针对在复杂环境道路场景下交通标志检测问题,对 YOLOV3 模型进行了三点改进,并将其应用到复杂环境下的交通标志检测中,提高了图像特征的提取能力和小目标的检测效果。通过扩增后的GTSDB 数据进行实验,验证了改进后的 YOLOV3 模型在复杂环境下对交通标志识别问题上的准确率与实时性要优于原来的 YOLOV3 模型。 论文反映作者已掌握了本专业的基础知识,具有从事本专业研究开发的能力。论文叙述清楚、结论正确,文字图表较规范,达到了工学硕士论文的水平。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +161,本文针对电力电子变压器的拓扑结构进行了研究,分析对比了几种拓扑结构的优劣,并且通过大量的仿真分析得出了一些结论,具有一定的工程实际指导意义,但仍然存在一些不足,主要问题如下: 1. 论文创新点不足,研究的所有内容均为现有基础上的结果,并且所提出的PETT结构的优势并不明确,仍然有很多工程问题需要解决; 2. 论文撰写方面,没有把MMC的必要性写出来,需要进一步加强; 3. 论文中的仿真结果有待进一步考证。,0,1,0,0,0,0,0,-1,0,0,-1,-1,0,0 +42,CAD/CAM在建筑设计中应用越来越广泛,研究木屋模型的CAD/CAM系统具有重要意义。论文开展基于Revit的木屋模型CAD/CAM系统设计与开发研究,选题创新性强,具有重要的实用价值。论文分析了木屋的CAD/CAM 流程及需求,设计了构件元素的族库,研究了基于Revit API的提参模块程序和加工排序优化模块,并进行了应用实例演示。论文工作量较大,概念较清楚,文献资料掌握一般,研究内容较合理,研究方法科学性一般,图表较规范、文字较通顺。论文反映作者掌握了本学科的基础理论和专门知识,具有从事科研工作的能力。,0,1,-1,1,1,1,1,1,0,-1,0,1,0,0 +2864,论文以养老机构孤寡老人为研究对象,探讨了孤寡老人的机构适应性问题,选题符合专业培养要求,具有一定的现实意义。论文结构设置较为合理,逻辑清晰,形式基本符合规范要求。存在主要问题:1、第二章内容和标题不相符,标题为研究设计,但内容主要阐述的是基本概念和相关理论,并未论述研究思路、研究框架等体现如何进行该研究的相关内容;2、第三章P养老机构老年人适应存在的问题,机构所有老年人似乎都存在这些问题,应重点分析孤寡老人的适应性问题;3、第四章实务部分,中观和宏观介入部分论述有些简单,社会工作介入的专业性不强;评估中提到团体活动(P30),实务部分对此没有很好论述。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2461,该论文选题合理,制备并采用超声波对蔗糖结晶过程进行强化,详细探讨了超声和无超声作用下蔗糖溶析结晶特性,并对超声以及无超声作用下蔗糖溶析结晶成核动力学进行了系统的研究,有较高的应用价值。该论文引用文献具有代表性和科学性,文献综述较为丰富和规范。论文格式正确,结构严谨,层次分明,书写规范,逻辑严密,语言流畅,重点突出,反映了作者具有较好的理论基础和科研能力。不足之处在于就超声结晶而言,作者与国内外其他研究者的工作对比较少,创新性略有太足。论文总体良好,同意提交答辩。,0,1,1,0,1,1,1,0,1,0,0,0,0,0 +842,作者以沈阳某人民医院空调冷热源改造工程为研究对象,以降低医院空调系统运行能耗为目标,对空调现场进行调研和相关参数测试,分析了现有系统存在的问题;阅读了大量文献资料,运用DeST软件对医院建筑进行全年动态负荷模拟,得到该医院建筑冷热负荷全年分布特性,在此基础上进行综合分析,确定了系统运行控制优化方案;利用TRNSYS 软件搭建仿真平台,通过模拟验证优化方案的节能效果。 论文的研究成果对类似空调系统运行的节能控制方案提供了较好的参考。论文完成的工作表明作者有较强的独立分析问题和解决问题的的能力。 论文表述条理清楚,分析严谨,得出的结论合理,格式符合规范,达到了硕士学位论文的要求。,0,0,0,0,0,1,1,1,1,0,1,1,0,0 +1965,论文主要研究了微小量程联动薄膜压力敏感芯片,进行了仿真分析和比较研究,并给出了工艺过程。论文选题有一定新意,研究内容充实,研究方法得当,文献资料研究充分,专业知识熟练。论文写作语言流畅,表述准确、规范。但是,文中还有部分瑕疵,如错别字、句式不合理等,此外,文中分析讨论不够充分和深入,影响了整体论文水平。,0,1,1,0,1,0,1,1,0,1,0,0,-1,0 +2962,文章采用大型直剪试验、SmartRock无线三轴惯性测量、非接触式三维激光扫描以及GDS动态三轴测试等技术手段,开展了细粒污染下的铁路基床填料界面力学特性和动力响应研究。研究工作量饱满,研究结果具有较强的理论意义,论文图表处理得当,具备较好的基础知识和科研能力,论文整体上达到硕士论文水平。意见及建议:(1)论文题目未能展现论文第三章的研究贡献;(2)公式2-2,缺少对法向应力比和剪切应力比概念的定义,建议适当增加做剪切强度回归处理后,给数据分析或应用上带来的好处;(3)图2-13,调整坐标轴的标注方式,改为剪切应力比(×10-3)法向应力比(×10-4),图形看起来更加直观;(4)图2-15,仅通过三个数据点,进行幂函数拟合方程回归,其可靠性是否有待考证(尤其是图2-15b);(5)85页第二段,去掉多余逗号。,-1,0,0,1,0,0,0,-1,-1,-1,0,0,0,0 +2916,论文整体水平一般,出现的具体问题如下:1、摘要部分冗长,背景介绍部分应删减或在绪论中体现,应突出主要内容和创新点并且可用1/2/3进行罗列凸显层次和条理性,关键词不准确。2、1.2.3总结部分引用他人文献。总结部分应该以个人观点为主体作得出相应结论。3、2.3.1主体结构设计缺少支撑性内容。底盘部分的结构设计未具体表现。4、3.3.3对比实验前后逻辑性混乱,前后矛盾。对比实验的对象选取是否不合适?实验结果表明,铝合金既符合强度要求又能达成轻量化的目的,但是最后考虑其它非主要因素(和实验前置条件不符的因素)而不选用铝合金?那为什么要选取铝合金做对比实验?5、3.5.2仿真实验完整性缺失,不同工况的实验未体现。6、5、6论文主体部分引用他人文献。主体论证部分,多以个人实验过程、实验条件、实验数据、实验结果为主体,文章中出现多处实验数据、实验方法、实验结果引用他人文献的情况,此情况非常罕见!!!7、5.6总结部分,实验结果是否能达到实际效果未知。在实验条件能否能达到实际标准未知的情况下,结论的合理性有待考证。8、论文创新点薄弱,采用的方法在传统的工程实际中常见。9、论文规范性较差,个别语句不通,表达不准确,书写及图表格式错误过多(已在发给‘公信评估’的原文中进行了标注)。建议修改后答辩。,0,0,0,0,0,0,-1,-1,-1,0,0,0,0,0 +1231,本文主要针对基于三维投影数据的ECT图像重建中的关键技术与难点问题展开了研究。论文选题合理、符合专业方向要求,具有较高的理论研究意义和一定的实际应用价值。 论文的研究内容包括:(1)探讨了组合极板对三维ECT图像重建质量的影响,设计了极板两两组合的纵向组合极板传感器模型,基于3×8结构传感器通过与传统模式进行仿真对比,论证了其优越性。(2)研究了剔除最远极板对间电容值对三维ECT图像重建质量的影响,基于3×8结构传感器通过与传统模式进行仿真对比,论证了其有效性。(3)推导了基于同伦摄动方法的ECT迭代重建公式,提出了一种自适应迭代终止条件,进而基于仿真分析和实验结果,验证了该方法的有效性。 作者已查阅了一定量的相关文献资料,论文的原理与技术方案基本正确,研究内容较为完整,仿真和实验过程比较详实,数据具有较高可信度。论文整体结构比较合理,思路与层次清晰,格式符合基本规范,表述较为简洁。 由论文体现出作者已掌握了本领域所涉及的相关理论知识、技术方法、实验平台及分析工具等,具备了较强的独立科研及实验能力。 论文工作量达到了硕士毕业要求。,0,1,0,0,1,1,1,1,1,1,0,0,0,0 +812,针对18650圆柱形锂电池端面缺陷,在详细分析了各类结构特性及缺陷特征后,设计了一套对端面缺陷自动检测的装置。能够在正常实验条件下完成缺陷检测,系统能够检测出八类主要缺陷,平均漏检率为9.87%,平均误检率为3.99%,效果良好,在实际应用方面具有广阔的前景。 从论文撰写方面,可以看出作者掌握了本学科基础理论和系统的专业知识,具有一定的独立从事科研工作的能力。 论文达到硕士学位水平要求,可以提交申请答辩。,0,0,0,0,1,1,0,0,0,0,0,1,0,0 +2852,论文以社会福利院患病老人为研究对象,利用小组工作提升其自我价值感,依托符号互动和活动理论对老人心理进行干预,选题具有一定的理论和实践意义,结构完整,行文流畅,过程介绍详细,形式规范,展现了作者的研究能力,能达到硕士学位论文的水平。建议:在自我价值感概念部分将其二级指标点明。现状部分对各级指标下老人价值感的具体表现和问题作出解释。缺少访谈证据。增加过程评估的内容。问卷中与二级指标点对应的题目需要明确,价值感各部分如何得出的结论需要说明。,0,0,0,0,0,1,1,1,1,0,0,0,0,0 +202,对滚动轴承声发射信号智能识别与故障诊断的研究具有非常重要的理论价值和工程应用前景,论文选题很好。 论文主要研究工作和成果包括: 1)采用双向长短时记忆网络模型方法,完成了滚动轴承故障声发射信号特征的自适应提取与智能诊断,特别是在变工况下对故障声发射信号特征的识别性能研究; 2)设计了基于声发射检测技术的滚动轴承故障在线监测软件,并对软件系统及各大模块功能进行多次实验测试并进行不断的改进与优化,实验结果表明了系统的可行性。 论文工作量大,写作规范,结构严谨,表明作者掌握了本学科坚实的基础理论和系统的专门知识,可以进行答辩。,0,1,0,1,1,0,1,0,1,0,1,0,0,0 +2812,论文以《基于EVA估值模型的人工智能企业价值评估研究——以川大智胜为例》为选题,具有一定的现实价值。论文在介绍相关概念和评估方法的基础上,构建了EVA企业价值评估模型,然后以川大智胜为案例对估值模型进行了应用分析,最后得出了研究结论与展望。论文结构合理、思路清楚、结果比较合理。但在,要对人工智能企业与EVA估值模型之间的适用性进行更充分论证;同时,对于EVA估值模型只通过川大智胜一个案例来验证人工智能企业价值评估,缺乏普适性和推广性,建议推广到对人工智能行业其他具有代表性的企业进行研究,以增强信服力和推广应用价值。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +3037,综合评价:文章选择Interbrand模型对辅助生殖企业品牌价值进行了分析,具有一定的应用性;文章对专业知识的运用较为合理,体现了一定的专业性;文章逻辑尚可;文章写作较为规范,结构较为合理。总体达到了硕士学位论文水平。存在的不足之处:1、从全文来看辅助生殖为主要关键词,但在研究背景的描述中主要以品牌为关键词,把辅助生殖放到的次要位置;2、只有第二章对Interbrand模型的基本形式及原理有简单的提及,但在模型构建时未对Interbrand模型的基本形式进行一个详细的阐述,使得模型改进过程较为缺乏完整性;3、缺乏理论基础,如企业价值理论等,使得文章缺乏一定理论支撑,0,1,0,0,1,0,1,0,0,0,0,0,-1,0 +940,论文和作品的选题与学科、专业关系密切,具有一定学术研究价值,能够在一定程度上为本学科的相关实践活动带来一些启发性意义。选题符合专业培养目标,阐述了非遗纪录片《青花布》前期策划、中期拍摄和后期制作的创作过程,并从镜头、景别、色调三个视觉方面和音乐、同期声、解说词三个听觉方面阐释作品中视听语言的设计,并由此推及非遗纪录片制作中视听语言的独特性。通过毕业设计笔者积极总结创作经验,反思创作不足。 论文和作品选题源于专业实践的现实问题,作品反映了作者科学运用专业技术解决实际问题的能力;论文框架结构合理,研究成果有一定应用性;论文写作遵守学术行为规范,符合相关要求,可以进行答辩。,0,1,0,0,0,1,0,1,1,0,1,0,0,0 +79,本论文研究了Al-Zn-Mg-Cu铝合金通过挤压成形工艺后的组织性能变化; 研究了Cu含量对 Al-Zn-Mg系合金组织性能影响;论文还特别对挤压成形后的织构进行了较深入的研究。 论文选题有较大的工程意义,在织构的研究上有创新。 作者已经掌握了材料学的相关理论知识,能运用其分析实验中得到的研究结果,获得可信的结论。 论文的写作规范,逻辑性强,达到了硕士论文的水平。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1450,该文以东北制药公司为例研究了企业成长性问题,在文献综述和理论分析的基础上,通过对案例企业历史数据的系统分析,并与同行业其他企业的对比分析,发现影响企业成长性的主要问题,提出相应的改进建议,研究结论具有一定的参考价值。全文逻辑较为清晰,层次分明,研究方法运用适当,资料充分,对国内外的研究现状有一定的了解,能够运用所学的基本理论和方法解决实际问题,具有一定的科研能力。,0,0,1,0,0,1,0,0,1,1,1,0,0,0 +2162,轴承是装备制造业中一种重要的关键结构组成零件,在航空航天、汽车制造、高铁运输等行业具有十分广泛的应用。研究其热处理工艺是提高零件质量的关键技术之一。本文作者以高铬碳轴承钢 GCr15为研究对象,研究了不同热处理工艺对GCr15轴承钢的显微组织和力学性能的影响规律,具有一定的工程实用价值和理论意义。 论文的主要见解和结果如下: (1) 研究获得了固溶温度和固溶时间对贝氏体含量、碳化物含量和尺寸等显微组织和硬度等力学性能的影响规律。 (2) 阐明了M+B等温淬火热处理工艺对显微组织和力学性能的影响规律,获得了较优的等温淬火热处理工艺。 (3)阐明了M+B等温淬火回火热处理工艺对显微组织和力学性能的影响规律,获得了较优的等温淬火回火工艺条件。 论文工作量较大,撰写较认真,图表清楚,分析基本合理。,0,1,0,1,0,0,1,0,0,0,0,0,0,0 +75,本论文选取镍基单晶高温合金为研究对象,通过Re和ppm级S含量的变化,利用扫描电子显微镜(SEM)、X射线衍射分析仪(XRD)和电子探针(EPMA)等先进手段探索不同温度下对其氧化性能和腐蚀性能及机制的影响,为下一代镍基单晶高温合金的设计提供重要参考。论文结构设计新颖,条理清晰,工作量饱满。达到了硕士学位的水平,同意答辩。,0,0,0,1,0,0,0,1,1,0,0,0,0,0 +1841,论文以新型风力发电机机舱轮毂专用吊具为研究对象展开研究,在对比分析的基础上选择液压伺服系统作为驱动系统,围绕电液伺服系统控制仿真研究及吊具的静力学等分析做了一下工作: 1)设计了风力发电机机舱轮毂专用吊具的机械结构,在此基础上根据专用吊具实际工况设计了电液伺服系统,并进行了元件选型。 2)建立专用吊具电液伺服系统的数学模型,进行了系统稳定性及响应特性分析。 3)基于Matlab/Simulink软件分别采用了 PID 控制、单神经元 PID 控制、改进型单神经元 PID 控制三种控制方式对专用吊具电液伺服系统进行了仿真分析。 4)对风力发电机机舱轮毂专用吊具进行了静力学分析与疲劳分析,校核了专用吊具的强度。 论文选题有意义,对国内外研究现状论述分析较全面,工作量较饱满。论文有一定的深度和创新性。,0,1,1,1,0,0,0,0,0,0,0,1,1,0 +181,"除草剂对农业生产是非常重要的,本研究选题具有重要意义。双氟磺草胺除草剂是经济和环境友好的农药发展方向。论文合成了双氟磺草胺的中间体 5-甲氧基-8-氟-1,2,4 1,2,4 -三唑[4,3 -c]-嘧啶-2(3H)-硫酮,讨论了各种条件的影响,具有一定的创新性,作者对相关的文献掌握准确,完整,论文具有很强的逻辑性,对所使用的试验方法掌握熟练, 试验数据处理得当,能够比较充分地验证理论结论。论文写作规范。语法正确,各种符号使用准确,层次分明,结构严禁,推理比较严密,学风良好。",0,1,1,0,0,1,1,0,1,0,1,1,0,1 +2155,针对在钛合金表面制备Inconel718高温合金存在界面处易形成金属间化合物,导致界面结合强度弱与易形成裂纹等问题,作者分别采用预热工艺、线性梯度结构、纯金属过渡层与Nb/Cu复合层等方法,拟解决上述存在的技术难题。该论文选题具有较强的工程应用背景,作者对相关问题进行了较为全面的文献综述与总结,表明作者比较熟悉相关领域的关键技术瓶颈,提出的解决方案具有一定的独创性,研究内容饱满,工作量较大,取得的研究结果对于实现异种金属如钛合金与高温合金等连接具有十分重要的指导意义。 作者论文写作较规范,图表清晰,论述合理,发表多篇较高水平的学术论文,表明作者具备一定独立从事科研的能力。,0,1,1,1,0,1,1,0,1,0,0,1,0,0 +658,论文作者采用多种科学方法和手段系统研究并阐述了激光熔化沉积12CrNi2V组织形成原理,通过残余应力场变化和第二相粒子数量和分布的变化分析了回火处理后12CrNi2V硬化机理,深入探讨了回火强化及拉伸断裂机制;试验研究了沉积层疲劳断裂规律,发现了沉积样品裂纹起源与传统方法制备12CrNi2V不同,其中缺陷尺寸和位置对疲劳性能有重要影响。论文选题合理,试验方法先进,分析合理,写作规范,逻辑性强,表明作者深入掌握了本学科的基础理论,科研工作能力强。,0,1,0,0,1,1,0,0,1,1,0,0,0,0 +1514,"近年来, 随着海外私人股权投资基金在我国投资活动的日益活跃, “对赌协议”越来越多地被运用到投资领域。实践中,有些企业对赌成功, 取得了良好的效益, 而有些企业则由于种种原因对赌失败, 付出了惨重的代价。立法上,我国并未对对赌协议作出明确规定, 因此在实践中不断出现由对赌协议引发的纠纷。在这种背景下,2019年,最高人民法院发布《全国法院民商事审判工作会议纪要》(以下简称《九民纪要》),突破以往对赌协议案件的审判范式,统一了对赌协议效力,从保护投资创业的角度来看取得了重大突破。然而,对赌协议仍有许多法律问题需要进一步研究、解决。作者以此为选题,是具有实践意义的。 作者在文中,分析了我国对赌协议的实践类型,将之总结为股权回购型、现金补偿型等一些类型,并对每个类型的司法适用疑难点进行了分析,同时作者还以美国的经验进行了对比研究。总体而言,结构较为完整,逻辑也较为清晰,用语和引证基本规范,具有一定的问题意识,也展现出了较强的问题分析能力,论文整体而言是合格的。",0,1,0,0,0,1,1,0,1,0,0,0,0,0 +1413,该生以智能微电网的故障检测与优化运行为研究对象,紧密结合了当前电力生产实际,其选题具有一定的理论意义与实际工程意义。 作者在查阅大量国内外参考文献的基础上,构建了含冷、热、电三种能源形式及智能调节设备的的智能微电网模型,其次针对分布式电源和负荷的波动性,以运行成本为目标,减少智能微电网微源运行成本,并针对智能微电网故障检测问题,采用深度学习算法,构建智能微电网AI故障识别与定位系统,其仿真结果表明:优化策略降低了线路损耗成本和微源运行成本,使智能微电网整体运行经济性达到最佳,具有实际工程指导意义。 论文条理清楚,层次分明,推理正确,结论合理,表明该生具有扎实的理论基础,具有较强的独立科研工作能力和创新精神,论文已达硕士水平要求。,0,1,1,0,1,1,0,0,1,0,1,1,0,0 +1098,本论文应用大数据挖掘技术对电力大数据进行数据挖掘,通过状态评估了解电力设备当前状态,对减少设备发生故障的概率具有一定的意义。选题具有较强的工程应用背景和实用价值,文献综述较全面。 论文分析了电力设备文本数据的特点,采用基于数组的 Apriori 算法对电力设备缺陷文本进行数据挖掘,依据不同数据类型采取不同的状态评估方法,发挥行业经验作用,并针对部分设备的数值型数据和非数值型数据进行了评估分析。研究成果具有一定的实用价值,论文工作量饱满,格式较规范,反映作者有一定的专业理论知识,具备独立从事科学研究的能力。,0,1,1,1,1,1,1,0,0,0,1,0,0,0 +1954,论文制备了Fe/g-C3N4和Fe3O4/g-C3N4两种Fe元素改性g-C3N4光催化剂,并进行了降解活性及光催化降解机理的研究;论文选题正确,对石墨相氮化碳的催化性能改进具有理论意义和实用价值。 采用一步热聚合法制备Fe/g-C3N4改性光催化剂,通过XRD、FT-IR、XPS、BET、UV-visDRS等表征测试对光催化剂的微观形貌结构、元素电子价态、光吸收性能进行测试分析,探究了氯化铁与三聚氰胺不同质量比对制备Fe/g-C3N4的形貌、微观结构与光吸收性能的影响。采用溶剂热法制备了不同Fe3O4/g-C3N4复合光催化剂,依据亚甲基蓝溶液降解情况优化工艺及评判改性后光催化剂的降解性能。论文具有一定创新性。 论文数据翔实可靠、结构清晰、分析有理、结论可信。表明作者具有较好的基础知识的专业知识,具有独立从事科研的能力。 论文已达到硕士学位论文的学术水平。,0,1,0,1,1,1,0,0,1,0,1,1,0,0 +1853,论文在对我国融资租赁资产支持证券发行利差现状和问题进行分析的基础上,基于影响因素研究视角,对融资租赁资产支持证券发行利差的影响因素进行研究。论文选题来源于实际,具有一定的理论研究价值和实际应用价值,丰富了相关领域的研究成果。作者阅读了一定量的国内外文献,了解国内外动态,具有较强的文献综述能力。论文采用案例分析与实证分析相结合的方法解决问题,研究方法得当,研究思路清晰,分析过程完整,体现了作者具有一定的专业理论基础和独立从事科学研究的能力。论文工作量达到要求,条理清晰,文笔流畅,结论具有一定的价值。,0,1,1,1,1,1,0,1,1,1,0,1,0,0 +2458,该论文选题符合专业要求,数据来源于医学实际,将机器学习模型应用到医学诊断中,并给予模型构建,运用python开发小的诊断程序,做了较好的尝试和创新,体现了较大的工作量。框架逻辑合理,行文流畅。达到硕士学位论文水平。摘要第三段的表述不够规范,没必要详细表述模型结果。文献综述部分相对薄弱,而且文献的表述方式不规范,全部为国外文献?可以说在甲状腺癌CAD方法相对空白,但是在文献研究部分应该重点是机器学习模型在医学的应用。另外一般绪论中都要有论文的创新点。图2-4虽然英文比较简单,但是应该考虑翻译为中文,因为是国内论文。后续文中还有类似的问题,综合考虑表达效果进行适当调整。,0,1,-1,1,0,0,0,1,1,0,0,0,0,0 +3068,作者针对乳腺癌,从SEER中获取数据并进行检查重复值、剔除缺失值、构造新变量和对多分类变量进行聚类并编码的操作;在医学统计方法中,采用列线图来预测乳腺癌五年特异性生存率并分析其影响因素。在机器学习方法中,采用决策树、随机森林和GBDT三个单一模型以及Stacking集成模型来预测乳腺癌五年特异性生存状态,并从全局和个体的角度分析其影响因素。选题具有实践意义、符合研究方向,能够利用统计方法进行展开研究。论文写作逻辑较为清晰、结果合理、文笔较为流畅、形式较为规范。达到了硕士学位论文水平。不足之处主要有:论文创新性不够、工作量不够饱满。另外,部分参考文献写作不规范不统一,如[18]、[39]等。,0,1,0,-1,0,0,-1,1,1,0,0,-1,0,0 +629,论文针对近极槽永磁电机的电磁性能和振动性能进行了一系列仿真分析,研究硅钢片是否有取向、轧制方向对电机性能的影响,特别是磁致伸缩效应对有取向硅钢片电机振动的影响,研究结果对这类电机的减震、减噪设计具有参考价值。 论文采用ANSYS Workbench和Maxwell软件对电机进行了仿真计算,得出了在一定的频率范围内,有取向硅钢片电机的振幅大于无取向硅钢片电机。 论文反映了作者具有比较扎实的专业知识基础,有一定的分析解决问题的能力,同意修改后答辩。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +435,论文基于某制药企业在北京市的冷链药品配送现状,建立了一个优化冷链品物流配送路径的模型,模型满足时间窗约束并且目标函数是最小化综合成本,并为该模型设计了GRASP-VNS混合算法,得了两种路径优化方案,最后根据解决方案题材冷链物流配送路径优化的合理化建议。 论文的选题具有较大的实际意义,研究工作取得了一定的成果,达到了硕士学位论文的要求。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +474,论文选题陈旧,研究方法与研究内容框架并未摆脱王健、郑鹏程等竞争法学者已有的成果影响,故而论文的内容只能停留在前人成果的简单复述上。 我国反垄断法在2008年就颁布实施了,再加之再2012年最高人民法院的司法解释对私人实施做了比较详细的规范,但此司法解释在操作层面上仍然存在诸多问题。故建议论文应从该司法解释中寻找选题进行精细化的写作,而不是大谈私人实施的制度起源于演变及其必要性。,0,-1,0,0,0,0,0,0,0,0,0,0,0,0 +1683,论文通过对激光切割过程建立几何模型,提出相界面模型作为高斯热源,详细描述了激光穿孔及切割过程中的数学基础模型及控制方程。使用多相流模型、焓孔介质法等模型热流固耦合实现激光穿孔及切割过程的仿真,对仿真的温度场,流场和压力场进行计算分析,并进行实验验证,得出了相关结论。 论文选题较好,有很强的针对性,研究过程全面合理,研究结论具有实践指导意义。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +1019,“下肢外骨骼机器人人机协调控制研究”主要针对下肢行动困难者研究康复型下肢外骨骼机器人的设计方案,具有较重要的实用价值。 论文设计了一款自由度贴合人类正常行走规律、便于穿戴的下肢外骨骼的机械结构,并利用 Solidworks 完成了三维模型的建立,并分析了外骨骼运动学和动力学。通过 ADAMS 和 MATLAB/Simulink 搭建联合控制仿真平台,将控制器、电机模型、外骨骼模型连接起来构建完整的控制系统。通过实验证明滑模控制具有理想的跟随性,外骨骼机器人的关节运动角度始终跟随设定的康复训练轨迹,是较理想的外骨骼机器人人机协调控制方法。 论文撰写条理较清晰、逻辑较严谨、格式规范,论文工作表明作者在本学科领域已具备坚实的基础理论和系统的专门知识。论文已达到专业硕士学位论文水平,同意参加答辩。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +1015,“汽车零部件设计的多项融合开发技术研究”一文,将参数化建模技术、VRML 技术、数据库技术、CATIA 二次开发技术以及Workbench 二次开发技术融合应用,完成汽车零部件设计平台的总体方案设计、搭建以 及验证工作。本文选题来源于工程实际,选题具有一定的实用价值;作者文献阅读量较小,外文文献外文文献更少;综述一般,研究过程表明作者基本掌握了本领域内相关学术动态,选题具有较强针对性;论文研究过程反应出作者基本掌握了本学科的基础理论知识和系统的专门知识,具有初步的从事本领域相关科学研究工作的能力,关键问题选择基本正确,研究方案较为科学合理,研究工作量一般,得出的结论基本可靠,研究成果一般,论文有一定新意;论文写作条理性较强,文笔较为流畅,论文图、表、公式规范,基本上达到了硕士学位论文的基本要求,同意修改后进行答辩。,0,1,-1,-1,1,1,1,1,1,1,1,-1,0,0 +1178,本文以2000HP三缸柱塞式压裂泵为研究对象,设计了一种柱塞式压裂泵,对柱塞式压裂泵的工作特性、转轴应力进行了分析。论文选题合适,具有工程实用价值;作者阅读了文献,对本领域的研究现状具有一定的了解;作者掌握了一定的专业知识,研究了柱塞式压裂泵的极槽配合、几何参数、转子轴的振动模态,但论文写作存在许多不规范之处。,0,1,1,0,1,0,-1,0,0,0,0,0,0,0 +3040,综合评价:选题兼具学术和现实意义,调研分析和实务介入基本符合本专业要求,资料较为丰富详实,论证合理,语言流畅,格式与引文规范,达到了硕士学位论文要求。论文存在问题与不足之处:1.摘要部分未能凸显文章的主要研究过程和观点;2.内容为个案工作介入标题为社会工作介入,略有出入,可以具体修改为个案工作介入;3.调研的过程与结论不算严谨与后面的介入衔接不足;4.需求分析不规范;5.实务介入过程建议参考民政部的行业标准,进行形式和内容的修正。,0,1,0,0,0,0,1,1,-1,0,0,0,0,0 +1157,本文通过试验,对3D打印墙体材料的技术性能进行研究,确定3D打印非承重墙体材料的配合比。对硫铝酸盐水泥、尾矿砂、脱硫石膏、粉末状聚羧酸系减水剂等新材料,分别对3D 打印非承重墙体材料进行抗压强度、折压比、拉伸粘结强度试验。得到材料组分最佳掺量。确定材料最佳配合比。并进行了具体非承重墙体打印,对两种墙体进行层间粘结强度测定,满足现行砂浆技术规程对粘结强度要求。全文实验内容较为充实,写作基本规范。专业基础较为扎实,实验进行的较为细致和全面,实验结论具有一定的实践意义。,0,0,0,1,1,0,1,0,0,0,1,0,0,0 +1505,基于老龄化社会现实,从尊重被监护的成年人自由意志及其人身财产权益的监督保护的需要出发,我国民法自民法总则时始从立法上确立了成年意定监护制度,民法典予以承继,但从现有规定和实践适用层面讲,我国民法中的成年意定监护制度总体凸显出框架式租线条规定,不仅成年意定监护制度的许多具体规定缺失、空白、粗糙,而且既有的规定实施性、操作性也不强,实践中极易生成问题且产生问题,有效处理问题的路径同样缺失、空白。本硕士学位论文以我国成年意定监护制度为题,将我国成年意定监护制度中的问题归纳为主体资格不明确、意定监护人的权利义务缺失、意定监护协议缺少细致规定、成年意定监护监督机制不完备四个突出问题,并在进一步比较分析基础上,借鉴美国、英国、德国、日本成年意定监护制度中的做法和经验,就我国成年意定监护制度完善提出了如下学理性建议: 关于意定监护制度中的主体资格,分别针对被监护人、监护人就其主体资格要求提出具体条件,包括积极条件和消极条件两个方面;并提出多层监护并存设想。关于完善意定监护主体权利义务,分别就意定监护人权利和义务、被监护人权利和义务进行了分析论述。关于细化意定监护协议规定,就成年意定监护协议设立形式、内容、生效要件、解除条件、适用顺序进行了较为充分的论述。关于意定监护监督机制,提出了构建双轨制的意定监护监督模式、构建覆盖意定监护全过程的监督机制、细化意定监护监督主体的资格的学理建议和明确监督人监督职责的理论设想。上述理论研究观点,对于完善我国成年一定监护制度具有明显的理论指导价值。 从发挥意定监护制度作用,应对我国老龄化时代到来,本论文选题的理论价值和实践价值比较鲜明,彰显了法律制度对社会发展的规范与保障功能;从论文的分析和论证过程来看,虽然本选题研究的难度不是特别明显,但作者研究和分析过程中的思想、观点与分析方法,表明了作者具有较为扎实、系统的法学专业功底和一定的研究能力,论文总体表述清楚、观点明确、语言表达流畅、逻辑结构严谨,基本具备了法学硕士研究生所应当具备的能力和要求。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +3054,作者使用医院早产儿的数据,对数据进行了重构和填充,利用卡方检验和非参数统计方法进行了单因素分析,利用三种方法进行建模并对比。符合统计学原理,具有一定的理论基础。选题具有实践意义、符合研究方向,能够利用统计方法进行展开研究。论文写作逻辑较为清晰、结果合理、文笔较为流畅、形式较为规范。达到了硕士学位论文水平。不足之处主要有:论文创新性不够、工作量不够饱满,缺少技术路线。另外,部分参考文献写作不规范不统一,如[10]、[16]、[53]、[60]等。,0,1,0,-1,0,0,-1,1,1,0,0,-1,0,0 +427,论文对永磁同步电机的驱动控制系统进行了研究,选题具有重要的理论意义和实用价值。论文中分数阶控制理论应用到永磁同步电机的闭环控制系统中,采用分数阶PI控制器实现了系统的控制,并进行可仿真验证,同时,搭建了硬件电路完成了一系列的相关实验。论文写作规范,表述清晰,研究全面具体。表明了作者已经掌握了本领域的相关知识,具备独立从事相关工作的能力。,0,1,0,0,1,1,1,1,0,1,0,0,0,0 +960,论文以人教版高中生物学必修1实验为例,对利用支架式教学培养高中生生物学科学探究能力开展了研究。论文对相关研究现状、概念界定和理论基础做了阐述,利用调查问卷,对某高中高一年级学生的科学探究水平进行了调查,对某校4 名教师开展了关于培养学生科学探究能力及支架式教学的访谈,展示了2 个教学案例,开展了教学实践并对实践结果进行了分析,对研究不足进行了一定的总结。论文选题具有较好的研究意义,论文整体结构较合理,写作较规范,对于一线高中生物教师及中学生物教学研究者具有一定的参考价值。 ,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +2326,本文通过运用灰色预测模型和马尔科夫链对超额收益法进行改进,从而得出格力企业的商誉价值,作者对相关理论和模型进行了灵活运用,基本达到硕士论文的水平,但还有一些问题需要进行修改,建议修改后经导师同意送审。本文存在以下问题:1、文中存在大量错别字和病句问题,如“几个部分部分、收益年限的进行确定”等,其次存在作图不规范和图文内容不符问题,如图1-1我们从图中看到的是商誉价值占净资产比重下降而不是作者描述的比例上升,图1-2、图4-1等都存在图片模糊问题。2、本文文献综述没有逻辑性,大部分参考文献质量较差。3、本文的研究背景过于简单,缺少行业情况的描述。4、本文一直在强调并购活动中的商誉价值评估,但在案例选取中并未说明是否是并购情况下的估值,使得文章的整体性和连贯性不强。此外对案例描述过于简单,无法看出案例的典型性。5、本文对超额收益模型进行改进是为了减少主观性,但是在对生命周期进行划分时,认为成熟期时间是成长期的两倍,请补充依据。6、本文最大的问题即模型的适用性没有进行规范,即没有体现出电器行业商誉的特点,也不能判断适用范围,即外部效度不得而知。7、建议本文通过两种评估方法估值的比较来说明改进的模型的科学性。,0,0,-1,0,0,0,-1,0,0,-1,0,0,0,0 +2971,文章选题有一定的实用价值,尤其是城市综合管廊对于提升城市建设,降低建设成本都具有较好的价值,但文章的创新度不足。文章收集的资料一般,对文献的梳理和总结一般,文章逻辑基本清晰,文章的语言表达能力尚可。文章基本达到了硕士论文的水平。文章的创新度远远不足,需要加强对创新的挖掘。文章对传统评估方法的梳理不够清晰完整,无法形成对现有评估方法的完整认识。文章的研究结论参考价值不高,基本属于案例的延伸,没有很好的由点到面。,0,1,-1,0,0,0,0,1,1,0,0,1,0,0 +518,论文研究对热轧AZ31镁合金板材沿RD和TD方向进行预变形,引入孪晶,采用分离式霍普金森压杆对未预压缩试样,预孪晶试样沿RD、TD和ND方向进行高速冲击。通过MATLAB编程软件及电子背散射衍射(EBSD)技术分析了预压缩过程中微观组织和织构的演变。研究并得到了未预压缩试样、预孪晶试样在不同应变速率下及不同变形温度下的组织演变规律和高速变形行为。具体研究的内容: (1)研究在常温条件下,预孪晶AZ31镁合金轧板沿不同方向的高速冲击变形行为,观察其显微组织、力学性能、变形机制的变化。 (2)在不同应变速率条件下,观察预孪晶试样沿不同方向的高速变形行为,分析其变形机制。 (3)加入温度变量,研究温度因素对其微观组织、力学行为及变形机制的的影响。 论文选题具有先进性,研究方案合理,文献总结很全面,论文工作量大,内容丰富,实验数据和图表分析合理。论文写作文字通顺,图表规范,是一篇高水平的硕士学位论文,反映作者掌握了较强的材料科学基础知识和现代材料分析研究方法。建议进行论文答辩,并授予工学硕士学位。,0,1,1,1,1,1,1,1,0,0,0,0,0,0 +662,论文作者利用光纤光栅传感器搭建了隧道火灾报警模拟系统并进行了研究。隧道的特殊性使得火灾预测和报警非常重要,因此选题具有较强的实际意义。论文工作通过分析制定合理的固定和动态报警阈值方案,实现光纤光栅实时测量顶棚温度,并实现及时有效的报警。研究具有较强的新意和特色。论文作者在软硬件方面的工作显示了其对本学科知识有较好地掌握。论文整体写作较为规范,逻辑较为清晰。,0,0,0,0,1,0,1,0,1,0,0,1,0,0 +1176,本文以 ZF 保险公司为研究对象,在对国内外薪酬相关研究成果进行 系统梳理的基础上,从 ZF 保险公司概况、组织结构现状、人力资源现状、薪酬体系现状、满意度调查和离职调查几方面进行分析,在评价现有薪酬体系的基础上,给出了优化方案。论文选题合理,有一定的研究价值,逻辑结构完整,框架清晰,语音表达符合学术规范。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +2496,该论文在全国碳限额与交易政策的背景下,考虑市场的低碳减排偏好和企业的低碳技术改造,研究第三方物流参与、第三方物流竞争和第四方物流参与的低碳供应链协调决策,从减排水平和利润两个角度,研究供应链各主体在集中、分散、协调决策以及成本分担契约下的博弈情形,并运用Stackelberg博弈对模型进行分析,利用数值模拟进一步分析不同参与形式下物流减排对制造企业的具体影响。论文选题具有一定的理论和现实研究意义,能够应用数学模型分析实际的企业决策问题,体现出了一定的研究能力,论文结构完整,思路清晰,论证充分,写作规范,基本达到硕士学位论文水平。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +2244,1.综合评价论文考虑了互联网公司的特点,通过引入红利收益率对实物期权法做了改进,并利用改进的实务期权法对同花顺公司进行了价值评估。论文选题符合资产评估专业硕士要求,研究成果具有一定应用价值。然而论文的论证并不充分,工作量较为单薄,逻辑和结构存在一定的问题,文笔较弱。2.是否达到硕士学位论文水平基本达到硕士学位论文水平。3.论文存在的问题及不足之处(1)论文需要对“传统实物期权法不适应于互联网企业价值评估”的论断做出更为充分的解释;同时,对于引入红利收益率的必要性、原理以及相应的计算方式需给出更为详细的陈述和文献支撑。引入红利收益率是本文唯一的创新点,但目前论文仅仅在第25页轻描淡写地用一句话指出:B-S模型的一个重要假设条件是没有考虑红利分配因素,但是实际生活中没有这种情况。如此明显违背现实的情况,难道没有一个资产评估专家发现了?为什么传统的B-S模型没有考虑这一点?是不是根本没有必要考虑?考虑引入红利分配,是否会对评估的准确性和可靠性造成影响?作者需要用足够的篇幅回答以上问题。(2)作者利用与同花顺股价的比较来验证本文所提出的评估方法相比传统B-S模型更具优势。虽然本文所提出方法的评估结果与股价之间的差异更小,但是差异仍然达到了9.02%。作者说这是“合理异常范围”,依据是什么?(3)作者需要进一步理顺论文的写作逻辑。本文到底是为了提出一个适用于互联网企业的一般评估方法?还是仅仅是针对同花顺公司价值做准确评估?目前论文的结构安排与写作模式令人非常疑惑。,0,1,0,-1,0,0,0,0,-1,0,0,0,0,0 +1959,论文主要利用faster rcnn进行了垃圾图像的分类。针对性的改进包括;采用ResNet50代替VGG16作为特征提取网络;根据本文数据图像库中目标的长宽比,基于K-means聚类算法重定义区域建议网络中的锚框尺寸;使用全局平均池化替代全连接层完成分类回归工作。论文选题有一定实际应用价值。论文的撰写结构基本清晰,结构完整。结果有一些实验数据的支撑。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2223,1、论文以《基于并购视角下的半导体企业价值评估研究》为选题,具有一定的现实性。论文在对半导体企业进行介绍的基础上,对半导体企业价值的评估方法的适用性及其模型进行了分析,然后对北方华创进行了案例分析,最后得出了研究结论与展望。论文结构合理、思路清楚、结果比较合理。但在,对于EVA模型与修正后的实物期权模型,只通过北方华创一个案例来验证半导体企业价值评估,缺乏普适性和推广性。建议:推广到对半导体行业其他具有代表性的企业进行研究,以增强信服力。同时,要对半导体企业评估方法的适用性进行更充分论证。,0,1,0,0,0,0,0,0,1,-1,0,0,0,0 +874,:文章选取 M 集团作为案例研究对象,基于业财融合的研究视角对M集团全面预算的编制、执行情况进行了分析,对 M 集团的全面预算管理质量升级给出优化建议。文章选题符合专业培养目标,具有一定的现实针对性,论文结构合理,文字表达较准确、层次尚分明,注释、图表规范、统一,初评时文章存在的问题:(1)文献综述中,对已有研究成果的评述尚不够深入;(2)研究方法中将“归纳分析方法”作为一个独立研究方法列入似乎不妥,技术路线缺乏图示;(3)理论基础是否恰当有待斟酌,理论基础在本文中是如何应用的,看不出来;(5)业财融全的研究视角体现不充分;5.问卷调查如何开展的,调查对象、问卷发放与回收情况都没有介绍,调查结果的可信度存疑,等,在复评时大部分已获得解决。,0,1,-1,0,-1,0,1,1,1,-1,-1,0,0,0 +2076,修改后的《行政诉讼法》将规范性文件作为被诉行政行为依据可以附带要求人民法院进行司法审查,但有关如何理解把握对规范性文件进行监督与审查,尚有许多问题需要从理论和实践两个层面进行研究和探讨,因此选题具有较大的理论研究意义和较强的时间应用价值。论文思路清晰,论证结构在层次上具有较强的逻辑性,在内容上基本涵盖了规范性文件司法审查涉及到的所有问题,在论证方法上能够引入相关案例进行分析,同时能够紧密围绕论点展开论证和分析,符合了硕士研究生基本要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2896,论文针对结构风振响应可靠度问题,采用复模态法和传递函数法,对两种风速谱作用下的六参数实用粘弹性阻尼耗能结构及其阻尼器保护系统的响应谱进行了理论推导分析,获得了结构响应谱的解析解,并进行了相关参数分析。论文选题具有一定的理论意义和工程应用价值,撰写比较规范,方法合理,结论可信,达到硕士学位论文要求,同意答辩。建议从以下几方面对论文中相关表述进行修改:结构风荷载谱与风速谱之间的关系,从文中表述来看,部分内容描述存在混淆风速与风荷载,比如Davenport风速谱描述的是风速的频域特性,对于结构风荷载来讲,风作用在不同结构上由于绕流场的不同将产生不同的风荷载效应,比如荷载规范中的体型系数即表征风对不同建筑外形产生的不同风荷载,因此,从风速谱转换到风压谱需要考虑气动导纳。结构风工程常用的风速谱有与纵向相关的Davenport谱、karman谱、Kaimal谱、Harris谱,以及与竖向脉动相关的Panofsky谱等,论文分析中选取Davenport谱和Panofsky谱的原因,如果考虑Davenport谱沿高度无变化,那么为何没有选取更为常用的Kaman谱,而选取了Panofsky谱?建议文中进一步阐述。此外,建议对风速谱的相关描述尽量采用英文形式,避免采用翻译的中文名,比如巴金斯谱。对于文中涉及的基于Panofsky风速谱确定风荷载谱的公式,有些包含有面积Ai,有些则没有包含面积Ai,建议全文统一检查确认公式表述的准确性。在1.4节问题的提出中,文中提到“现阶段国内外对于结构响应谱矩的研究[61]较少”,前述文献综述中未见关于结构响应谱矩的相关阐述,文献[61]也是1995年著作,结构响应谱矩又是文中主要研究内容,建议增加相关内容综述,补充相关近期文献支撑该论述。文中如何考虑作用于结构上风荷载的相关性?,0,1,-1,0,0,0,0,0,1,0,0,0,0,0 +2613,"论文达到了硕士学位论文水平。修改建议:1、论文在书写规范上需要进一步修改。如,第8页“图2-1神经网络学习的大体框架”建议修改为“图2-1神经网络的分类”;第9页,出现“模拟模拟”重复;第10页“,若不存在激活函数”中的逗号改为中文逗号,第二段关于常用的激活函数描述部分,应该按照Relu、LeakRelu、Sigmoid、Tanh、Swish、HardSwish出现顺序进行描述,另外,LeakRelu与LeakyRelu描述不一致了;第11页,最后一段“卷积神经网络(ConvolutionalNeuralNetworks,CNN)获得了卓越成就在图像处理方面”建议改为“卷积神经网络(ConvolutionalNeuralNetworks,CNN)在图像处理方面获得了卓越成就”;第12页,“通常可以将其化为4类,”字体大小不一致;第20页,“LongJ等[69]人在《FullyConvolutionalNetworksforSemanticSegmentation》一文中提出”建议改为“LongJ等[69]人提出”;第26页,公式(3-2)(3-3)(3-4)可以用等式描述吗?诸如此类,请认真修改,一定在语言标点图形等方面要规范。2、第41页,“最后采用随机挑选的方式选择1897张图片作为训练集”,是否应该采用什么方法或方式在数据集中选取训练集,以使得训练集尽可能涵盖结节特征更完备一些呢?否则训练后无法保证模型的准确性。",0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +2665,"论文聚焦FRP网格增强ECC复合加固损伤钢筋混凝土梁的可行性和加固效果,重点研究损伤状态下加固钢筋混凝土梁抗弯性能,论文选题结合科学前沿和工程实际,作者具有一定的专业研究基础能力;文本写作规范程度需加强,文献资料较为齐全,参考文献格式需要重新修正,尚未发现不当引用及抄袭现象。论文已经达到硕士学位论文水平,但参考文献需要仔细修改。建议如下:1、FRP网格材性拉伸试验中试件段横向网格是否起作用,起什么作用?需要阐述一下;2、BM2-4的极限荷载如何确定?需阐述一下;3、参考文献格式非常混乱,2,3,5,11,12,16,17,22,23,24,25,26,28,31,32,33,34,35,36,37,38,39,43,46,47,50,52,以及后面较多参考文献格式均不对,建议自行按照国标进行修改,不要从网上(百度学术等)直接粘贴,很多格式都是错误的。",0,1,1,0,0,1,-1,0,0,0,0,0,0,1 +77,本论文选题具有较好的理论与实际意义。作者能够运用相关理论与方法对“科技服务业区域非均衡发展及影响因素研究——以辽宁省为例”的有关问题展开论述与讨论,并能够得到相应的研究结论,其研究结论都有其一定理论与实践意义。 论文研究的主要贡献表现为: 1)在明确科技服务业内涵的界定和分类的基础上,梳理和研究区域非均衡发展理论,描述和比较科技服务业的发展现状,以集聚为非均衡发展的表现形式。 2)以辽宁省科技服务业为例,综合考虑区域资源投入、区位因素及政策导向,利用空间基尼系数、行业集中度和区位熵来衡量和分析非均衡发展的程度、特征和趋势。 3)为明确科技服务业区域非均衡发展的作用机理及影响程度,建立影响因素的理论计量模型,以多元线性回归为方法进行分析和得出结果,从而寻求合理且具有针对性的推动科技服务业区域非均衡发展的对策与建议。 论文结构基本合理,文字表达还算顺畅,但是还需要改善,论文格式基本规范。通过论文的研究过程可以看出,作者基本掌握了有关理论和方法,并具有较好的科学研究能力。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +625,论文针对机器人行业驱动电机高过载能力的要求,开展具有高过载能力永磁电机的结构设计研究,选题具有较好的理论意义和实用价值。 论文首先在影响永磁电机过载能力的因素分析基础上,研究了电机反电势、交直轴电抗和转子磁路等参数对过载能力的影响特性,结合电机结构参数的优化,设计了一台具备5倍过载能力的永磁同步电机,并通过仿真验证了输出过载能力特性,并构建电机3D模型,对永磁电机的损耗和温升等特性进行研究,验证了高过载能力永磁电机设计方案的有效性。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1909,论文针对海岛多能源系统可靠性评估方法和容量规划中存在的问题,构建了海岛多能源系统的整体架构,通过能量转换设备建立了含电、气、热的能量枢纽模型。给出了海岛多能源系统可靠性指标,采用序贯蒙特卡洛模拟法对系统随机变量进行抽样,提出了海岛多能源系统可靠性评估方法。提出一种考虑供能可靠性的海岛多能源系统容量规划策略。 论文的研究对促进综合能源系统的发展具有一定的理论意义。论文具有一定的创新性。论文逻辑结构合理,层次分明。论文撰写规范,概念清晰,分析严谨。作者具备本学科领域的专业理论知识,具有从事科学研究的工作能力 。,0,0,0,0,1,1,1,0,1,0,0,1,0,0 +1342,该论文研究考虑不确定性的多能源系统综合储能优化调度具有一定理论意义。论文将综合储能引入多能源系统中,建立了多能源系统结构;建立多能源系统综合储能能量流模型,结合分时电价管理机制;将源荷不确定性考虑到系统模型中,对源荷不确定性进行鲁棒分析。论文选题具有一定的理论价值,作者对本研究领域文献资料了解比较全面,论文具有一定创新性,达到硕士学位论文要求。,0,0,1,0,0,0,0,0,0,0,0,1,0,0 +1228,本文主要是研究设计了一种轴向磁通双定子无刷双馈凸极磁阻转子风力发电机,在设计工作中,将转子形状从扇形改成菱形,计算了极对数、定子槽数和相关额定参数,并通过有限元分析了电机的空载特性和负载特性,验证了二维等效模型的正确和 改进转子形状对电机性能提升的可能性,以及三维轴向磁通电机模型能满足设计基本要求。论文选题具有较好的实用价值,研究的成果具有一定的理论意义和创造性,论文作者具有较好的独立从事科学研究的工作能力,论文文字表达基本符合规范。,0,1,0,0,0,1,1,0,0,0,1,0,0,0 +586,论文阅读资料较为广泛,we年梳理清楚详细,选题有一定的应用价值,文献述评清晰评述了国内外研究动态,研究方向正确。论文内容比较浅显,研究方法得当,运用较为充分,数据较为翔实丰富,大量研究数据比较充分,论文有一定的工作量,结构清楚,概念清晰,分析较为严谨,分析结果有一定的针对性,较好的掌握了专业理论知识。,0,1,1,1,1,0,0,0,1,1,0,0,0,0 +1600,论文对双体振贯月壤水冰自平衡采样进行了研究,调研了一定的参考文献对国内外现状进行了分析,对月壤特性进行了论述和冲击贯入器原理进行了分析,设计了冲击贯入式月壤采样方案,并对采样器进行了有限元分析,搭建了试验平台,完成了样机的部分验证试验。选题具有一定的研究意义和实用价值,基本掌握了最新的研究进展,研究成果具有一定的借鉴意义,论文难易程度较为符合要求,论文章节布局较为条理,撰写较为规范,作者掌握了一定的专业理论知识,具备独立从事科学研究的能力,试验结果有一定的可信度。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +513,论文研究不同海洋环境及在舰船运动的影响下,舰载机牵引系统动态问题。论文主要研究内容有:: (1)建立了航母舰板上牵引系统学模型,考虑海况等级、侧风等级、牵引速度和牵引质量等条件的影响,对舰载机牵引系统的直线行驶和转向行驶的行驶特性进行仿真。得到行驶稳定性与海况的对应关联。 (2)提出了牵引系统横向稳定性控制策略并建立了控制系统,。以舰载机和牵引车的横摆角速度偏差值为控制量,由模糊PID控制决策出牵引车和舰载机在行驶过程中的横摆力矩,并基于最优滑移率逻辑门限值控制器来调节制动器所要施加的制动力,以此来减小系统行驶中的横摆力矩来降低系统的横摆角速度。仿真结果表明,该控制系统降低了舰载机和牵引车的横摆角速度,提升了牵引系统的行驶稳定性能。 论文写作规范,结构合理,论文基本达到硕士学位论文要求。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +2781,论文选题有一定的理论与应用价值,结构比较完整,逻辑、层次尚可,格式基本符合规范。能够运用翻译转换理论指导翻译,对原文进行有效分析,并对翻译实践进行记录与分析。具备一定的问题意识,基本展开了必要的举证与论述。文字表述存在较大问题,表述重复、拖沓,使用规范学术语言阐述问题的能力需要提高。英语语言不仅“中式英文”现象较严重,也存在较多语法错误,较严重地影响到观点论述。总体基本达到硕士论文学术要求,建议认真细致进行修改后答辩。,0,1,0,0,0,0,1,-1,1,0,0,0,0,0 +2239,1.图画的不规范,没有统一刻度。2.分析单个图的时候没有明确指出是哪一张图。3.扫描电镜照片没有明确标出损伤位置。4.实物图的质量不是很好。5.2.3.2没有分析各个曲线图中位移的差异。6.2.4.2没有分析为什么碳纤维0°与90°方向抗撕裂效果差异较小。7.2.4.3语句重复。8.2.5.23#和4#的对比不能说明力学效果一定有提升,也有先从3#增加到最高点,后减小到4#的可能性。9.2.6部分语句重复。10.3.3.2没有写出图中得到的数据,没有与图紧密结合。,0,0,0,0,0,0,-1,-1,-1,0,0,0,0,0 +2462,"该论文选题基本得当,论文从微观出发,运用理论与实验相结合的方法,从理论上了解各部分Li+迁移的机制以及通过实验进行了表征,在固体锂离子电池方面具有一定的应用价值。该论文的内容与题目基本相符、结构基本完整、层次基本清楚、内容基本合理。该论文按照如下意见修改后可达到硕士学位论文水平。论文存在的问题及不足之处:1.摘要(1)中,“O、Mn提供的能量较高,使它形成的共价键更加稳定”这句话是否歧义?2.文中有些图片没有对应的文字描述,如图1-2、图1-3、图6-8等。3.能带图中能带混乱,无法直观观察到价带顶和导带底等信息,如图3-2、图4-5、图4-6等,建议给出突出标注。4.在3.3.2章节中,作者描述“O-2p中出现了一个新的能带”是否正确?5.在3.3.2章节中,作者描述“在掺杂Ni2+后,LiNi0.5Mn1.5O4中的Li-O的键长稍微变长一点,Li-O键能减弱”是否合理?6.在4.3.3.1章节中,作者描述“在-6.74eV到-1eV的能带密度十分明显,同时此处靠近费米能级,其对应的态密度峰同样十分显著,说明价带的此区域为主要的成键区域,导带区域为主要的反键区域。”是否存在误解?分析结构的成键是否需要计算COHP?仅通过能带和DOS的变化是否可以得出这个结论?7.文中存在一些文字错误和格式问题。如下:(1)目录中数字字体存在问题;文中存在大量留白,请认真排版;(2)在1.6章节中的NEB应该在(1)中标注,而不是(3)中标注;(3)在模型图中标注各颜色与原子进行一一对应,以及统一图中字体、比例大小及纵坐标刻度;(4)图6-3(c,d)在0.1mAcm-2、0.1mAcm-2和0.2mAcm-2下标注有误;(5)在1.1.3章节首段、3.2章节首段、5.1章节引言部分存在明显的文字错误。(6)该论文推理符合逻辑,结论和建议具有现实意义,但是在书写格式及图表的规范性方面不够规范,同意修改后参加论文答辩。",0,1,0,0,0,0,-1,0,1,0,0,0,0,0 +2592,轮廓检测是图像处理领域里的难点,论文对基于深度学习轮廓检测模型进行研究,具有较重要的研究意义。论文综述了目前国内外的研究现状,提出了自己的算法,取得了一定的成果。论文写作结构合理、层次分明、逻辑严谨、文字通顺,格式规范,反映作者掌握了一定的理论基础和相关知识,具有一定的分析问题解决问题的能力。论文达到硕士学位论文水平,同意答辩。主要不足之处是文中提到“编码网络的纵向部分使用现有的VGG-Net[37]框架进行迁移学习,导入VGG16模型在ImageNet[72]上预先训练的参数用于初始化权重系数。”是否应该结合自己的网络图说明那一部分用的?,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +1640,论文进行了复式钢管混凝柱-剪力墙组合结构的抗震性能研究,主要采用的是基于abaqus软件的数值模拟方法,然后进行一系列的参数化分析,研究不同类型结构的承载力及不同工程参数带来的影响。总体而言,论文的研究具有明确的工程意义,但是论文的研究深度严重不足,很多浮于表面的分析。论文的写作也比较粗糙,很多细节都没有给出,比如数值模型的建立,大篇幅在讲软件操作,而缺乏研究性的参数确定、网格划分的依据、网格划分的影响等分析。总体而言,本论文需要进行大体量的修改,特别是本论文以数值模拟为主,则需要把数值模型讲清晰、数值模型验证好、参数分析有深度,才能满足硕士生的要求。,0,1,0,0,0,0,0,-1,0,0,0,0,1,0 +1660,论文瞄准人体动作识别过程中诸多关键问题展开研究,选题具有很好的研究意义,相关领域具有广阔的发展前景。作者主要解决了从体量庞大且缺少标签的多元时间序列中快速准确地辨识出动作的问题。针对现有的方法在PAMAP数据集效果不佳的情况下,提出了基于分布的状态提取方法(Distribute-Based State Extract,DBSE 方法)。利用该方法直接从分布中提取特征并结合基于加权欧式距离建立聚类方法。以此聚类方法作为动作识别问题的核心。在 PAMAP 序列集的多次实验结果显示,相比于多元时间序列分割与聚类的代表算法 TICC 聚类方法与其它聚类方法,DBSE方法在对人体动作的区分上具有更高的准确率与更快的速度,能够较为准确地提取出常见的 9 种动作。 该论文形成的结论总体正确,论文结构清晰、观点阐述较清楚,语言逻辑性强,撰写规范,工作量较饱满,形成的成果较丰硕。同意答辩。,0,0,0,1,0,0,1,1,1,0,0,0,0,0 +1212,本文针对空化喷嘴在废水处理过程中存在空化率低的问题,设计了一种旋转叶轮空化射流喷嘴,对其进行了数值模拟,研究了喷嘴内的空化区域、空化效果和空化率等空化性能,并进行实验验证,验证了结果的准确性。该研究提高了空化喷嘴产生的空化率,对空化射流技术在废水处理方面的应用具有一定的参考意义。论文工作量足,结构合理,叙述基本清楚,理论推导详细,仿真分析完整。所做工作表明作者已基本掌握本学科领域专业知识,并能独立完成研究工作。论文达到硕士论文毕业水平,请对论文中的问题进行修改,同意参加硕士论文答辩。,0,0,0,1,1,1,0,1,1,0,0,0,0,0 +1079,本论文使用水热法制备荧光碳量子点,一种以聚丙烯酰、柠檬酸钠为原料制备的 j-CDs,另一种以垃圾渗滤液、柠檬酸钠、二硫化四甲基秋兰姆为原料,制备l-CDs。将制备的CDs用于水中锑离子(Sb3+ 与 Sb5+)和汞离子的荧光光谱检测。 该论文存在1)工作量严重不足,只有一章研究内容,一个学期就能完成的工作。2)课题专业相关性较低。该论文研究是典型的分析化学类研究课题,而不是工程类,既体现不出化工的三传一反,工艺放大,也体现不出材料工程的构效关系研究,同时体现不出工程类研究的数理分析。3)研究工作肤浅,类似于测试报告,堆砌仪器测试数据,强加解释,而体现不出“给出现象-提出假设-开展实验-论证假设”这样的科学研究模式。4)论文创新性不够强,水热制备的方法也不新。目前已报道的现场检查重金属离子方法众多,检测效果也已相当好,价格也并不太高,进一步研究的可提升空间并不大,作为工程类研究项目是否真的有实际研究价值。同时对学科发展是否真的有推动意义? 该论文无论从哪个方面都像是加强版的本科毕业论文,同时鉴于研究工作较低的专业相关性,无法推荐答辩。,0,-1,0,-1,0,0,0,0,0,0,0,-1,0,0 +2440,该论文借助光谱预处理手段,建立一种简便快捷且实用的质量检验模式,快速测定食品中的石蜡添加剂,预期应用在石蜡非法添加领域,该论文选题具有一定的应用价值。论文利用ATR/FTIR法快速检测牛油火锅底料中的固体石蜡,实现了快速分析;基于空间角检测大米中非法添加石蜡,建立了大米中石蜡红外光谱的快速分析方法;利用红外导数光谱法检测蜂蜡真伪,结合理论分析和实验数据,以上技术都取得了较好的检测效果。论文存在的不足:部分图中的图注、横纵坐标字体太小,如图3-2;该论文经过修改后,同意该生参加硕士毕业论文答辩!,0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +39,Al-Zn-Mg 系合金因具有较高的强度和优良的塑性而具有广阔的应用前景,但该类合金焊接后的力学性能和耐蚀性不理想,从而影响了使用。论文分别采用ER5356 和ER4043 焊丝对Al-4.5Zn-1.2Mg-0.3Mn合金进行钨极氩弧焊,并进行不同工艺的热处理,系统研究了热处理工艺对两种焊接接头的显微组织、力学性能和耐腐蚀性能的影响,确定了最佳的热处理工艺及相匹配的焊丝。研究结果可为提高Al-Zn-Mg 系合金焊接结构件力学性能和耐腐蚀性能提供理论指导,选题具有较大的理论意义和实用价值。作者查阅了大量的相关文献,了解研究领域的国内外发展现状,具有较好的分析问题和解决问题的能力。论文研究内容丰富,理论分析较深入,体现了作者较好的掌握了本学科的专业知识和基础理论,具备独立从事科学研究的能力。论文写作格式规范,逻辑性强,层次清晰,达到了工学硕士学位论文的水平,同意答辩,并建议授予工学硕士学位。,0,1,1,1,1,1,1,0,1,0,0,0,1,0 +1604,论文对永磁悬浮车展开实验研究,选题具有较强的理论意义和实践价值。作者对国内外相关研究现状进行文献查阅,初步掌握了相关研究动态。进一步,开展磁悬浮车建立分析模型建立、控制器分析和实验研究等工作。论文整体工作量适当,初步符合硕士研究生阶段的工作量,采用dSPACE平台进行实验,显得作者自己的工作量和难度稍欠;论文具有较好的逻辑性,撰写符合规范。,0,1,1,1,0,0,1,0,1,0,0,0,0,0 +1688,论文通过实证,研究薪酬结构对企业创新投资及其效率的影响问题,选题具有重要的理论与现实意义。 论文对有关中外文献进行梳理,掌握了薪酬结构与企业创新投资及其效率关系研究的历史和现状,文献综述比较丰富、规范、引用文献具有一定的代表性。 论文理论联系实际,运用上市公司2014-2019年数据资料,通过相关分析、回归分析对各假设进行分析并开展稳健性检验,研究结论比较可靠,建议有一定的参考价值。 论文格式规范,结构比较严谨,研究方法科学,工作量比较饱满,语言比较流畅。 总之,论文达到了硕士学位论文水平,同意参加答辩。,0,1,1,1,0,0,1,1,1,1,1,1,0,0 +156,本文用廉价易得的酚醛树脂为支撑体原料,并引入铜基催化剂,以BTDA-ODA型聚酰亚胺为炭膜分离层前驱体,通过旋涂法制备了共混催化炭膜,另一种共混催化炭膜采用炭化法制备,同样以酚醛树脂为支撑体原料,引入催化剂,通过干燥、炭化后成膜,研究共混法催化炭膜的结构,催化剂粒度,分散形式等影响;采用催化剂层与支撑体层交替叠加,单层或多层的催化剂层与炭膜支撑体层交替叠加复合为一体制备叠层催化炭膜,考察了叠层结构,催化剂粒度,层数、厚度等影响。采用TGA、FTIR、XRD、SEM 等先进手段对支撑体的热解行为、表面元素或官能团变化,及所得炭膜微观形貌和结构的演变进行分析。最后,将所制备催化炭膜用于强化甲醇重整制氢(SRM)反应过程,考察了反应操作条件对催化活性,反应效果(反应速率、转化率和产率)等影响。 本文从功能化角度出发,赋予炭膜催化性能,使其兼具催化与分离双重作用,一方面深入研究优化制备工艺,同时开发在甲醇重整制氢反应方面的应用基础。本课题的研究工作对膜材料制备理论与功能化应用技术等方面都具有一定借鉴意义。 本文具有一定创新性,选题意义明确,作者知识点掌握较好,书写规范。,0,1,0,0,1,0,1,0,0,0,0,1,0,0 +788,永磁同步电机是多变量、强耦合的非线性系统,电机自身参数如转子电阻、转动惯量会随环境的变化而发生改变,进而影响电机的整体性能,论文采用模糊控制与神经网络控制相结合的控制方法,提高PMSM伺服调速系统抗扰动性,增强系统的鲁棒性,在矢量控制的基础上,提高系统的整体性能。 论文选题具有一定的应用价值,文献综述能够反映国内外该选题及相关领域的发展与现状。 论文的主要研究成果: (1)研究了永磁同步电机的结构及其工作原理,建立了永磁同步电机的数学模型,推导出永磁同步电机的动态方程,对矢量控制原理及采用的SVPWM控制技术进行了研究。 (2)采用模糊控制与神经网络控制相结合的方法,实现了对PI参数的自整定。设计了模糊神经网络PI控制器,用神经网络学习模糊规则。 (3)研究了递归模糊神经网络的控制算法,设计了递归模糊神经网络控制器。利用递归神经网络本身具有的自反馈结构,使系统的动态响应能力得以提高。 (4)将反推控制与递归模糊神经网络控制相结合,设计了反推递归模糊神经网络控制器,应用李雅普诺夫函数证明系统稳定性。 论文工作表明作者基本掌握基础理论、专业知识和研究方法,具有一定的从事科学研究的能力。 论文条理较清晰、文字通顺、图表规范;材料真实、结论合理。,0,1,1,0,1,1,1,1,0,0,1,0,0,1 +927,论文“成果导向教育(OBE)理念视角下高中英语读后续写的教育路径探究”,探讨了成果导向教育理念指导高中英语读后续写教学的有效性。论文选题尚可,研究难度适中,对高中英语教学实践具有一定的启示意义。论文评述了相关文献,提出了研究问题,设计了研究方法,采用定性和定量方法分析了数据,得出了一些结论。该生具备一定的文献阅读和分析能力,有一定的独立研究能力。但论文存在一些不足之处:1)未充分结合相关理论和前人文献对所有研究发现进行深入讨论;2)论文语言需进一步凝练,提升可读性。,0,1,1,0,1,1,0,-1,0,0,1,0,-1,0 +1286,该论文采用开环聚合的方式,制备了GCL共混剂及PVA-g-PCL、HDPE/PVA/PVA-g-PCL薄膜,并探究了助剂对聚乙烯醇复合薄膜性能的影响。采用FT-IR 、DSC、TG等现代分析手段表征了材料的性能,并对薄膜的拉伸性能、水溶性、微生物侵蚀性及生物降解性进行了研究,实验设计较为全面,实验结果合理,有较强的应用性。论文整体书写比较规范,逻辑性强,符合化工学位论文要求。,0,0,0,0,0,0,1,0,1,0,1,1,0,0 +2673,论文探索了影响产妇产后出血的危险因素,基于机器学习方法构建产后出血风险和预测模型。基于评价模型的预测性能,选出最佳产后出血风险预测模型,并确定产后出血的风险因素。论文能够综合运用相关的理论知识,逻辑较为清晰,结构较为合理,层次较为分明,综上认为达到硕士学位论文水平。论文存在的问题及不足之处或建议1.研究现状部分需增加述评,建议补充阐述以往研究还需进一步研究之处。2.第2章在本文中的理论基础作用需要突出,建议结合这些方法在本文研究中的作用和运用进行阐述。3.第5章评估模型预测性能部分,建议适度增加结果的分析。,0,0,-1,0,1,0,0,0,1,0,0,0,0,0 +463,论文通过采用Apache Hadoop和Spark等主流大数据技术处理框架,分析并设计了一个烟草大数据分析系统,实现了对烟草制丝生产数据的存储、管理以及查询等需求,同时也提供了对制丝工艺指标相关性进行分析的功能,该选题具有一定的现实意义。论文研究方法和设计手段符合实际情况,使用的技术比较成熟,系统整体架构设计比较合理,反映了作者具有较为扎实的专业知识背景与代码编写功底。论文结构比较合理,层次清晰,写作比较规范。,0,1,0,0,1,0,1,1,0,0,0,0,0,0 +2707,论文选题符合研究方向的要求,其研究成果具有较强的现实意义。作者收集参考文献78篇,对相关研究现状较为了解。研究内容明确、思路清楚,选用研究方法得当,论文层次结构合理,语言表达通顺,格式规范。论文具有一定的创新性,达到硕士学位论文水平。存在主要问题:一是文献综述建议按研究内容进行梳理,而不是以国外、国内进行段落划分;二是第二章的标题为“相关概念及理论概述”,但二级标题却没有“相关概念”——建议将几个核心概念列出,作为第二章的第一部分;三是第20页“初创生物制药企业价值评估特点”中,有的内容属于初创生物制药企业的特点,有的内容属于初创生物制药企业价值评估的难点,建议梳理。,0,1,-1,0,0,0,1,1,1,1,0,1,0,0 +847, 刘庄《F徵调式钢琴变奏曲》创作特点与演奏分析一文,创作特点分为曲式结构分析、和声应用及调式布局及创作风格分析三个部分。其中,和声的应用及调式调性布局这两部分均为创作特点的重要组成部分。尤其是调式调性布局,可在分析调式调性结构表的基础上,加上谱例的分析,具体对调式调性进行阐述。 创作风格分析中,也应加上相应的谱例进行论述。 自由变奏阐述较为简单。 第四章演奏分析中,跑动弹奏可结合调式调性的分析进行论述。关于力量的应用可结合和弦和声的特点及谱例进行分析论述。 ,0,0,0,0,0,0,0,-1,0,0,0,0,0,0 +2885,论文针对充液贮箱受到外部激励时内部液体晃动问题,以半充液旋转对称球形贮箱为研究对象,对充液旋转对称贮箱进行了液体晃动实验与CFD仿真实验,依据系统的输入激励信号与输出响应信号进行系统辨识和参数估计,建立了半充液球形贮箱在横向、俯仰和复杂激励下的参数化模型。研究成果具有一定的理论意义和工程参考价值。论文选题紧密结合工程实际问题,对国内外研究现状进行了较为全面的综述,研究内容比较丰富,仿真结果合理,实验数据可靠,结论正确。论文撰写条理比较清晰,段落层次清楚,结构比较严谨,语句通顺流畅,图表清楚,格式比较规范。反映了作者已经具备本领域比较扎实的理论基础和系统的专业知识,以及运用所学知识进行独立解决实际工程问题的能力。论文整体上已经达到了硕士学位论文的水平和要求。同意论文提交答辩。论文不足之处:(1)论文从国内外研究现状部分看已有相关类似研究,研究现状不是简单的文献罗列,需要总结归纳并找出目前存在的问题和不足,进行有针对性的探究。建议在理论模型、数值仿真和实验研究后分别增加文献述评。(2)论文中进行的是缩尺实验和仿真,对于实际大型罐体,其动力学特性和边界条件是否会有区别?(3)论文第2-5章不建议第1节出现引言,可以把“第1节引言”去掉,保留文字内容。,0,0,1,1,1,1,1,1,1,0,1,0,0,0 +199,电热联合运行方式是消纳风能、光能等清洁、非稳定能源系统的有效途径。论文对新能源消纳的电热联合运行系统的运行方式进行优化分析,将具有一定的理论和实际意义,论文的主要工作如下: (1) 以风电为例子,建立了一种电热联合系统模型,分析了不同运行模式下,系统消纳风电量的能力,并对系统的运行出力和运营成本进行了分析; (2) 以运行成本最低为目标,对系统的运行调度方法进行了优化,提升了系统的运营经济性和消纳效果 (3) 结合负荷波动,开展了负荷预期与调度策略相协调的运行控制策略优化,减小了由于负荷波动与不确定性带来的运行损失。 论文工作量饱满,工作扎实,思路清晰,达到了硕士毕业论文要求,建议提交答辩。,0,1,0,1,0,0,0,1,0,0,0,0,0,0 +490,论文选题具有一定的理论研究意义和较强的实际应用价值,论文主要利用传统方法完成了指节纹识别的研究以及基于卷积神经网络的掌纹识别研究。其中针对指节纹定位通过利用凸包算法定位手掌的凸缺陷点,并根据梯度变化找到指跟点,再根据各指节纹与指尖点和指根点的关系确定指节纹位置,具有一定的创新性。掌纹识别的研究工作创新性略显不足。论文最后将指节纹位置关系和掌纹特征的识别相结合,给出识别结果,并对实验结果进行初步的分析和讨论。论文内容较丰富,论述层次清楚,逻辑性较强,论文撰写规范。,0,1,0,1,0,0,1,1,1,0,0,1,0,0 +2197,(1)论文题目主要研究“超低压等离子喷涂工艺因素”及其对“涂层微区结构及性能的影响”研究,这两部分内容。而研究背景仅仅对“热障涂层技术”应用场景进行了介绍,且国内外研究现状也主要针对的是“热障涂层”的研究。因此,论文题目与绪论、正文不契合。建议修改论文题目,或者重新规划绪论部分,使两者建立密切的关联。同时,建议将“1.6.2研究意义”与“1.1研究背景”两部分合并在一起。(2)论文中有许多写法不规范以及表达不清楚之处。如,摘要中:“~47.6μm”的写法不规范。如,所提硬度属于什么硬度?洛氏硬度还是?(3)关于“最前沿的PS-PVD制备技术及热障涂层的应用瓶颈”具体是什么瓶颈,在国内外研究现状中并没有凸显出来。(4)表2.1中,Fe的质量分为“Bal.”,该简写名称代表的意义是什么?(5)论文中某些图片清晰度不够,阅读困难,如图3-5、图3-6等。(6)文中只对所得图像的趋势进行了分析,仅仅描述了相应的变化及现象,并没有从出现这些变化的本源或机理进行深入探讨,如图5-1、图5.2等。(7)论文基本都是实验研究或进行某些表观机理分析,研究内容略显不足,应该适当建立数学模型等数学角度上的分析。(8)“4.3部分中”,孔隙率是通过选择某一区域内的二维图片所得,且区域较小。是否能代表整体结构的孔隙率,需要进一步进行验证。该论文基本达到硕士学位论文水平,同意修改后答辩。,-1,0,0,-1,0,0,-1,-1,0,0,0,0,0,0 +1681,论文通过查找相关文献,论述了本课题的国内外研究动态。从声发射检测的基本理论出发,研究声发射源定位技术,针对声发射应变传感器的时延估计算法精度低易受噪声干扰等问题,提出了基于VMD_GCC时延算法。所开展的研究工作具有一定的理论价值和实际意义。 所开展的研究工作表明,作者已较好地掌握本学科的专业理论知识和专业技能,具有一定的从事科学研究的工作能力。论文结构完整,条理清晰,层次分明,逻辑严密,结论较为合理,达到了学位论文规范性要求,同意答辩。,0,0,0,0,1,1,0,0,1,0,1,0,0,0 +772,亚稳β钛合金具有高比强度、良好的冷热加工性能和热处理强化效果,是制造航空航天飞行器关键结构零部件的材料,对于飞行器减重是非常理想的候选材料。论文通过研究三种热处理状态对Ti-6Mo-5V-3Al-2Fe合金疲劳性能的影响,通过大量的试验获得了不同处理工艺对该合金的疲劳性能的影响,其试验结果是有意义的。论文试验工作量较大,数据较详实,并且能够运用所学的专业基础理论对试验结果进行合理的分析,表明作者较好地掌握了相关专业基础知识。论文结合合理,具有较好的系统性。其论文达到了硕士论文你的要求,建议进行论文答辩。,0,0,0,1,1,1,0,0,1,0,0,0,0,0 +2984,项目制是社会工作传统的选题,作者能够从组织社会学引入具有过程视角的社会学分析,拓展了学术边界,具有一定的知识创新意识与成效。本文实证资料丰富,描述细致入微,行文清晰流畅。结论具有水到渠成之效,阅读具有愉悦感。组织社会学及注重微观权力研究的后现代相关研究成果,或可为本文提供讨论的参照及结论的提升之效。项目制过程中的政府与社工组织的主动或被动、依附等讨论,具有较为丰富的成果。若能在发包与启动等过程的细节方面贯彻敏锐的观察,而不是停留在具有启蒙性质的“揭盖”层面,本文或将产生更加优秀的知识增量。,0,0,0,0,0,0,0,1,0,0,1,1,0,0 +1351,该论文以LaNiO3(LNO)氧化物导电薄膜与Pb(Zr0.52Ti0.48)O3(PZT)铁电薄膜为研究对象,采用溶胶凝胶法和不同的组装复合方式制备了PZT/LNO/PZT三明治结构复合薄膜、 PZT/LNO多层纳米复合薄膜以及多层纳米薄膜电容器,并研究LNO厚度及复合层数对所制备样品的晶体结构、表面形貌、铁电和介电性能的影响,获得了增强PZT电学性能的方法学。论文选题属于学术前沿问题,符合硕士学位论文的要求。从综述可以看出,作者对本领域的研究进展比较了解。在论文完成过程中,对所得的结果能进行深入的讨论并得出结论。论文撰写符合学位论文的要求,学术水平达到要求,同意答辩。,0,1,1,0,0,0,0,0,0,0,0,0,1,0 +2523,该生论文以布洛芬缓释胶囊为研究对象,用拉曼光谱和紫外分光光度计两种光谱仪器,结合化学计量学的方法,如角度转换算法、改进的ICA分离和斜投影算法,建立了快速分析布洛芬含量和溶出度的方法。并与高效液相色谱法进行了比较。结果表明,拉曼光谱法具有精密度较高,操作简单快捷,分析速度快的特点,适用于快速分析布洛芬含量。此外,该生利用紫外分光光度计与角度转换算法结合对布洛芬溶出过程进行了分析。结果表明,该方法可以实现布洛芬缓释胶囊溶出度的快速分析,可以用直接得到的物理量计算得到反应速率常数。论文选题目标明确,实验设计合理,思路清晰,创新性较强,具有重要的理论意义和潜在的应用价值。通观整篇论文可以发现,该生具有较扎实的理论基础和专业知识,对所研究领域具有较深刻的认识,综述简练完整,较好的掌握了国内外发展动态。论文条理清晰,层次分明,结构严谨。达到硕士学位论文水平。论文存在的问题及不足之处:1.参考文献写作欠规范,很多文献作者出现了***;文献[6]论文题目首字母大小写与其它文献不统一;多数文献标点后未空格。2.建议论文中仪器与试剂用表格形式列出。3.关键词未突出论文研究内容的特色,如拉曼分析方法,或光谱技术。4.英文摘要排版应进一步完善,有的单词间空格空间太大。5.表3-2中,B3布洛芬含量有效数字应与其它有效数字相统一。,0,1,1,0,1,0,-1,0,1,0,0,1,0,0 +2920,论文主要研究了MRI脑部肿瘤辅助诊断系统,主要研究内容包括:1)针对脑部MRI图像,研究了一种基于OTSU的改进的区域分割生长算法;2)通过改进体绘制中光线投射法的数值分类规则,实现对脑肿瘤MRI图像的三维重建;3)设计了MRI脑肿瘤辅助诊断系统。论文选题符合学科研究前沿,具有一定的实际应用价值。论文逻辑较为清晰,反映出作者已掌握本领域扎实的学科基础理论知识和系统的专门知识,达到硕士学位论文水平。论文不足之处:1)MRI脑肿瘤图像分割研究较多,基于深度学习的方法是目前的主流方法,包括单模态、多模态等,文中用传统方法进行改进研究,研究方法比较陈旧,用该方法研究的意义需要分析;2)MRI图像的重建没有进行性能的评价,方法比较传统,研究的创新性不够;3)文献综述不够全面,最新的研究趋势没有充分体现。,0,1,-1,0,1,1,0,0,1,0,0,0,0,0 +1617,论文话题比较新颖,随着个人信贷业务的增加,银行个人信贷业务的内部控制是十分必要的。总体上来讲,论文的框架结构尚可。但作者阐述的还不够深入,文中的阐述和主题有脱节现象。文中案例部分现状阐述、问题提出和解决的对策建议在大的逻辑上尚为达到一致。尤其是案例公司的问题提出的较为主观,和案例阐述部分的关系不大。建议作者能够继续深入研究和修改。,-1,1,0,0,0,0,0,0,1,0,0,0,1,0 +1888,论文针对定子采用散嵌圆铜线绕组的高压自起动永磁同步电机(HVRW-LS-PMSM)绝缘问题、电磁设计及有限元分析展开研究,选题具有较大的理论意义和实用价值。 在综述研究主题及其相关领域技术发展的基础上,论文完成的主要工作和取得的研究成果如下:针对高压自起动永磁电机定子采用散绕组的绝缘问题,分析了匝间绝缘、层间绝缘、主绝缘、端部绝缘的电场分布,对层间绝缘和主绝缘的绝缘厚度进行了优化设计,分析了冲片毛刺划伤主绝缘对主绝缘电场产生的影响;研究了HVRW-LS-PMSM主要尺寸、极槽配合、定转子槽配合的选取原则,讨论了转子磁路结构、转子冲片、起动笼条、定子冲片及高压散绕组的设计方法;结合所设计的HVRW-LS-PMSM样机参数,建立有限元分析模型,对其起动性能和稳态性能进行了有限元分析,并与采用成型绕组的高压自起动永磁同步电机进行了对比分析,验证了HVRW-LS-PMSM在卡式系数、气隙磁密波形畸变率、齿槽转矩占比等性能参数上具有优势;试制了实验样机,进行了样机整机对地耐压试验,验证了样机高压散绕组的绝缘可靠性。 论文的研究成果对于进一步研究高性能高压自起动永磁同步电机的设计、开发有参考价值。论文工作表明,作者专业理论基础扎实,具备独立从事科研工作的能力。论文图表清晰,符合规范。,0,1,1,0,1,1,1,0,0,0,1,0,0,0 +2444,"该论文首先采用灰色预测模型(GM(1,1)模型)、无偏灰色预测模型(UGM(1,1)模型)、新陈代谢灰色预测模型、新信息灰色预测模型、传染病动力学模型(SIR模型)、时间序列模型(ARMA模型)以及随机森林回归模型(RF模型)等单一预测模型对阿根廷和意大利的新冠疫情发展趋势进行预测,其次,利用新陈代谢和新信息的思想与无偏灰色预测相结合,基于组合后的新陈代谢UGM(1,1)模型和新信息UGM(1,1)模型、灰色预测和传染病动力学的两段式模型(GM-SIR两段式模型)和灰色预测和传染病动力学的均值模型(GM-SIR均值模型)再对阿根廷和意大利的新冠疫情发展趋势进行预测。该生能利用所学知识对新冠疫情数据进行建模和预测,但基于本文收集的两个国家的疫情数据,结合时序图和单位根检验,这两个序列数据并不是平稳的,在观察时段内的阿根廷数据具有明显的下降趋势而意大利数据具有明显的线性上升趋势,且单位根检验结果也不是拒绝原假设,因而建立平稳的ARMA模型是不合适的。其次,对于新冠疫情感染人数的变化会受到防控措施等的影响,单纯从感染数据本身进行建模并对未来进行预测,并不能很好地预测未来发展趋势,建议修改后直接答辩。",0,0,0,0,1,0,0,0,0,0,0,0,0,0 +87,本论文针对高速HART通信控制器进行设计。由于采用现有的C8PSK调制解调技术设计的HART通信控制器功耗过高,目前在仪器仪表设备中还没有出现基于C8PSK调制解调技术的HART通信控制器产品。本论文设计了一种新的C8PSK调制和解调电路,论文选题新颖,具有较高的理论及应用价值。 论文主要完成的工作如下: 作者在分析了现有的C8PSK调制解调技术后,设计了一种全新的C8PSK调制和解调电路。论文提出了一种C8PSK调制电路实现方法,使用电流合成技术来产生C8PSK信号,并且设计了一种频率准确且幅值可调的三角波发生电路,保证了C8PSK波形具有较高的精度。设计了一种CMOS晶体管阵列对C8PSK信号进行解调,并且对电路进行了低功耗设计。与传统方法相比,本文设计的电路结构简单且大幅度降低了电路的功耗。 本文在查阅大量国外相关文献及资料的基础上,针对高速HART通信控制器进行了设计及仿真,展开了较深入的研究。论文工作量较饱满,理论推导正确。论文撰写规范,表明作者已经具备独立从事科研工作的能力。论文达到了硕士毕业论文的要求。,0,1,1,1,0,1,1,0,0,1,0,0,0,0 +921,该生的论文题目为:咏叹调《我是一个捕鸟人》人物形象和演唱技巧分析,在论文的格式上面,因为论文的篇幅较小,不需要采用章—节的模式写作,可以用小一级的标题进行书写,在摘要部分的论述,因为本论文是关于歌剧《魔笛》中的咏叹调分析,不应该过多的对于莫扎特的作品进行整体陈述,而应该将重心放在这部歌剧和相关咏叹调的分析上面。总的来说论文结构不合理,逻辑性很差,语病非常多,不能用个人的主观的语言和观点进行议论文的书写,需要通过认真仔细的修改才能够达到艺术硕士论文的规范要求。,0,0,0,0,0,0,0,-1,-1,0,0,0,0,0 +979,文章选择了作者毕业音乐会中演唱的曲目《阿楚姑娘》作为研究对象,结合自身的艺术实践活动和本专业的一些相关理论知识,力图阐明中国风流行音乐与欧美流行演唱风格如何融合。研究内容的方向,符合艺术硕士学位要求。文章修改为三章。第一章是背景和演唱风格的融合,然后又是背景和演唱技法的融合,最后还是中外流行音乐演唱风格融合。从一开始就融合了,还怎么研究如何融合。逻辑不合理,层次不清晰。分析和总结不明确,结论不突出。,0,0,0,0,0,0,0,0,-1,0,-1,0,0,0 +1876,论文针对触头在高温电弧作用所发生的熔蚀现象,制作了直流空气电弧发生器实验样机,通过控制稳态电弧燃烧时间,实现对熔蚀程度的控制,完成了不同电流下的电弧开断实验;建立电弧-触头耦合模型,并通过添加阳极与阴极能量平衡方程,实现了电弧与触头间的相互作用,仿真计算了考虑触头熔蚀作用下的电弧变化过程,并得到了触头所形成的熔池特性参数;考虑到熔蚀过程对开断的影响,设置稳态电弧燃烧时间模拟触头熔蚀程度,仿真分析了开断过程及参数变化。作者具有扎实的专业理论知识和工程实践能力,论文方案合理,条理清晰,逻辑性强,达到了硕士学位论文水平。,0,0,0,0,0,1,0,0,1,1,0,0,0,0 +1057,MMC由于其模块化、开关频率低、输出波形失真小等优点被广泛应用高压直流输电领域,其桥臂子模块均压和二倍频环流抑制一直是MMC控制过程中最基本的问题,论文以此为内容改进对应的均压算法和环流抑制器具有非常重要的现实意义和应用价值。 论文通过傅里叶技术分析法研究了系统谐波分析规律,并采用开关函数耦合法准确地计算出了桥臂环流的理论值;继而通过分块均压设计了全新的均压算法,有效的减少了器件的开关频率;最后改善了环流抑制器,实现了对相间环流良好的抑制,可以有效的修正桥臂电流波形。论文对上述所研究的内容进行了比较详实的仿真验证和效果对比. 论文内容详实,仿真结果具体,撰写规范,表明作者具备了扎实的专业基础知识和独立开展科研的能力,达到了硕士学位论文的要求,建议稍作修改,经导师同意后参加硕士学位论文答辩,并建议授予工学硕士学位。,0,1,0,0,1,1,1,0,0,0,0,0,0,0 +2715,论文选题符合作者研究方向的要求。作者选择Sinobrand模型作为基础模型,改进了其品牌优势值算法,并引入了消费者指数,对青岛海尔的品牌价值进行了评估。其评估结论与凯度发布的2020年度最佳中国品牌榜单中青岛海尔的品牌价值接近。主要不足:一是摘要的第一段逻辑性不强,第二段不精练、不通顺,第三段和第四段内容有重复;二是论文对“研究背景”介绍不足;三是第二页“研究内容”写法不规范,研究内容不是对论文各章的简介;四是第二章标题不准确、层次结构不清晰,第二章标题为“品牌资产评估相关理论基础”,但内容实际为“品牌资产评估文献综述”,且其中第一、二部分中都谈到品牌资产定义。文献综述建议进一步梳理、补充;五是论文中个别标点符号运用不规范,且有个别错别字。如,第4页“第一、”应为“第一,”;第29页第5行“家电行业的发文化属性较弱”,应为“家电行业的高文化属性较弱”。建议修改后答辩。,0,1,0,0,0,0,0,-1,-1,0,0,0,0,0 +1416,该硕士论文“矢量逆Jiles-Atherton磁滞模型及其有限元计算”选题具有较好的理论和应用价值,研究成果具有较好的理论指导意义。论文对经典Jiles-Atherton 磁滞模型进行改进,得到了两种矢量逆Jiles-Atherton 磁滞模型,给出了模型与有限元计算结合的方法,并通过仿真验证了模型的实用性,论文已经反映出该作者掌握了本门学科的基础理论和专门知识,研究方法切实可行,研究成果有一定的创新性。论文有一定的工作量,已经达到硕士毕业水平,但文字表达缺乏一定系统性和逻辑性,文献引用不够贴切、规范,同意其修改后答辩。,0,1,-1,1,0,0,0,-1,-1,1,1,1,0,0 +718,所以作为汽车核心部件之一的涡轮增压器,对其技术的研究也就成为当今研究热点,在涡轮增压器试验台的研究过程中对给涡轮增压器试验台供气的设备要求也越来越高,并且对供气设备出口压力控制系统的研究逐渐成核心,这对分析以及验证增压器总成及其零部件的可靠性和机械性能具有重要作用。论文对涡轮增压器试验台恒压恒温供气控制系统进行了研究,确保供气设备出口的气体绝对压力满足涡轮增压器试验台的实验要求。该控制系统包括恒压控制系统、恒温控制系统和电气控制系统。主要利用AMESim 仿真软件对整个恒压控制系统进行了建模仿真,分析了控制系统对供气设备出口压力的控制效果,满足涡轮增压器试验台的工作要求,并为今后涡轮增压器试验的研究与发展提供了一种研究方案,达到了硕士论文要求和掌握了学科基本知识内容,但写作规范性和逻辑性有待加强提高。,0,0,0,0,1,0,0,0,-1,0,0,0,0,0 +3017,针对常用交通速度预测方法忽略交通速度的空间相关性及全局交通数据信息和外部因素对交通速度预测的影响,作者提出了一种基于时空注意力图神经网络的交通速度预测模型,并获得了较高的交通速度预测精度。选题来自于实际,具有较好的研究价值;研究内容充实,实验论证充分。但存在如下问题需要进一步修改好完善:1、文档需要进一步规范,如:图2-8跨页、表4-7跨页等2、该篇文章“ST-GRAT:ANovelSpatio-temporalGraphAttentionNetworkforAccuratelyForecastingDynamicallyChangingRoadSpeed”也是基于时空图卷积注意力网络的交通速度预测,作者所提方法与该文章的区别和联系是?另外,与上述文章相比,所提方法优劣?3、国内外研究现状综述不够充分,没有说清楚当前理论和技术的现状,以及所要研究的问题。,0,1,-1,0,0,0,-1,0,0,0,0,0,0,0 +1923,论文针对离散群点检测问题做了研究,提出了基于改进布谷鸟搜索算法的k-mean离散点检测算法。论文选题具有一定的实际意义。论文对所研究问题的背景以及研究现状做了详细的介绍和总结,显示作者对问题的进展有一定的把握。论文针对布谷鸟算法所存在的收敛精度低和收敛速度man的缺陷,提出发现概率与步长的自适应措施,并将算法应用于了网络入侵检测问题,实验表明算法性能得到了提高。此外,作者对算法的收敛性从理论上进行了研究,体现了作者一定的理论基础。论文整体结构安排合理,内容完整,叙述条理清楚,达到了硕士答辩的基本要求。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +790,用于除油的吸附材料可以解决环境污染问题,其中吸附材料是关键,存在很多问题需要解决,论文选题具有重要的实际应用价值和基础理论意义。 论文基于乳液聚合法和高温碳化研究了两种选择吸附性的可漂浮纳米吸油颗粒,详细地研究了样品的结构和性能。取得了丰富的研究结果,部分结果已经发表在同行评审的学术期刊上,表明论文作者已经掌握从事科学研究的方法,具有较强的从科学研究的能力。 论文写作符合硕士学位论文的写作规范,达到硕士学位论文水平。 建议答辩并授予硕士学位。,0,1,0,0,0,1,1,0,0,0,1,0,0,0 +1034,1、该学位论文以5052铝合金与连续碳纤维增强聚酰胺基复合材料的异种焊为对象,开展了摩擦搭接焊研究,分别探索了铝合金激光表面处理,偶联剂处理对摩擦搭接焊的影响,以及摩擦搭接焊与铆接复合焊的工艺实验。选题具有一定的新颖性,对工程应用具有较重要的理论和实践指导意义。 2、论文工作思路清晰,工作量大,实验设计及分析讨论科学合理,论文写作整体较为规范,表明作者具有独立开展科学研究的知识积累和工作能力。 3、同意进行答辩。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +1902,论文针对高速电机的温升和损耗两大问题展开研究并通过仿真的方法对空气温升和损耗等问题进行了较系统和深入的研究与分析,其研究和分析是有意义和价值的。但是从整体论文内容看,对问题的分析不够完整和比较零散,主要体现在公式的列举和推证缺乏与所研究对象的实质或量化的联系,比如给出了电机功率但是找不到电机的其他如电阻电感和电源电压等参数,如果没有相应的参数仿真结果难以证明所得出的结论正确性与合理性。用公式对公式仿真不能说明实际的工作和结果的正确。总之论文对理论及仿真工具的应用是比较熟练的,但是与实际对象的结合不够紧密,因此数据和结果对实际对象所形成的一致性是有不足的。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +929,论文“电影《哈利_波特 1》中“魔法”音乐形象化的塑造”选题聚焦,具有极强的现实意义。论文第一章对约翰·威廉姆斯及电影《哈利·波特 1》进行相关介绍。第二章分析该了组曲的三个主题。第三章分析了《哈利·波特 1》中音乐形象化的体现手法。结语中对上述三个章节的进行归纳与总结。 论文修改后,尽管增加了文献综述,但仍然相对简单,缺乏对文献的梳理与述评。正文中较之前有了补充,但音乐的分析还不够细致,如“魔法”音乐主题在电影中宏观层面的贯穿手法等。 ,0,1,-1,0,0,0,0,0,0,0,0,0,0,0 +1402,该篇论文在企业面临国内外部环境越来越不稳定,企业经营面临的风险越来越大,企业识别控制风险越来越迫切的的背景下,研究企业内部控制不仅有利于推进我国内部控制指引的落地,也对企业具有实践意义,从论文的内容看,该篇论文结构合理,逻辑性强,在论文中引入了评价,但是缺乏内部控制执行效果的指标,后面的建议缺少与评价的衔接,论文还有进一步优化改进的空间。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +454,论文面向油气开采发展需求和修井作业要求,提出一体化不压井修井作业中的井口对接技术研究,选题具有一定的实际意义。但论文未能在充分了解国内外发展现状的基础上对开展该研究工作的必要性进行充分论证,作者仅提出了一套并无创新性的井口对接方案,且并未真正实现该方案,故论文研究工作的实际意义并没有体现。论文写作的规范性、逻辑性均有待提高。,0,-1,0,0,0,0,-1,0,-1,0,0,0,0,0 +814,"针对靶向抗肿瘤疗法中关键靶点的抗癌药物存在的口服剂量大、生物利用度低这些缺点,本论文以6,7-二取代喹唑啉酮为起始原料,在催化剂的作用下,考察了4-氯-6,7-二取代喹唑啉关键中间体的工艺条件,发现在反应温度为70-80℃、反应时间为4-5h、催化剂用量为1.5%、重结晶溶剂乙酸乙酯和石油醚体积比为1:10时,产品收率大于90%,纯度大于99%。同时,以拉帕替尼为先导化合物,在EGFR信号传导机理的指导下,对拉帕替尼进行了结构修饰改造,设计并合成了9种全新的目标化合物。通过体外抗肿瘤活性初筛,获得了2类活性较好的化合物,优于阳性对照药拉帕替尼。 上述研究立足于实际需求,思路较为新颖,方法可靠,研究内容充实丰满,讨论过程逻辑清晰,取得了较为丰硕的研究成果;该作者在论文写作中思路清晰,逻辑通畅,语言规范,文献调研及研究结果讨论均体现出作者在本领域已经具有较为扎实的知识基础和具备了一定的研究能力。",0,0,0,1,1,1,1,0,1,1,1,1,0,0 +2680,论文通过构建换电模式供应链中换电运营商、汽车制造商不同权力结构情形下的博弈模型,分析消费者平均电池租赁时长与研发成本分担比例对双方利润、换电技术研发水平的影响,来探讨差异化供应链结构下的最优定价策略;此外,论文还通过构建决策博弈模型,对比政府补贴前后换电模式供应链中各成员关键决策变量的变化,分析了政府补贴对于换电模式的推广作用。论文选题符合专业培养目标,选题具有一定的理论意义与实践意义,工作量较大;该生查阅文献资料能力较强,观点表达准确,论证合理,内容完整,格式完全符合要求,已经达到硕士学位论文水平。论文存在的问题及不足之处:(1)目录有问题,标题与页码之间应该有虚线连接;(2)3.5.4节的题目逻辑不通顺;(3)论文的第三章和第四章单独来看,各自结构完整,论述清晰,但是两章之间的逻辑关联性不强,请作者增加对于不同权力结构下的换电模式供应链定价策略与换电模式供应链政府补贴这两部分的内在关联的论证,如政府财政补贴对于差异化的换电模式供应链定价策略的影响机制是否具有多样性?,0,1,0,1,0,0,-1,0,-1,0,0,0,0,0 +1760,论文研究了基于光栅投影的动态三维重建方法,利用自适应中值滤波算法去除图像中的噪声,采用小波变换轮廓术实现三维重建中的相位提取,采用优化的枝切法实现空间相位的展开,对采用的相机和投影仪进行了系统坐标标定,最后搭建了基于光栅投影的动态三维重建实验平台,实现了人脸表情和手指的三维重建。论文的创新体现在采用禁忌搜索算法对空间相位展开方法的优化上,论文选题具有一定的应用价值。论文调理清晰,写作较规范,工作量较。论文工作表明作者基本掌握了本学科的基础理论和相关专业知识,具有一定的科学研究能力。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1148,本文将失望规避、公平利他、政府行为和双主并方合作问题纳入统一分析框架,对不同决策模式下并购决策问题展开研究,选题范围清晰,符合本专业学位论文选题要求。 本文综述了相关理论与研究文献,掌握了本领域基础理论知识,能够把握本领域的研究现状与发展趋势,能够挖掘本领域在模型设计方面的主要问题,能够运用本领域的理论与方法展开模型设计、推演与论证。 本文从动态视角对主并企业合作并购的并购努力水平进行研究,建立了双主并方合作的微分博弈模型,分析了动态环境中的不同决策情境,试图求得一种最优合作机制,以实现双主并企业整体并购绩效提升,全文章节结构合理,研究思路清晰,研究内容具有新意,研究方法得当,研究结论具有理论参考价值。,0,1,1,0,0,0,0,0,1,1,1,0,0,0 +2068,我国正处在一个大力发展服务贸易的新时代新阶段,对于从增加值角度来分析国际服务贸易竞争力的论文选题具有极强的理论与现实意义。 论文的文献综述涵盖面较为全面,对于所要研究的内容国内外现状了解的较为深入,论文的研究方法得当,工作量适当,显示了该同学具有独立从事科学研究的能力,掌握的专业理论知识较为扎实。 论文写作符合硕士论文写作规范,逻辑清楚,内容清晰,结论可靠,部分内容经修改后可以参加论文答辩。,0,1,1,1,1,1,1,0,1,1,1,0,0,0 +1615,论文工作以研究高效电解水用合金电极为研究目标,选题具有一定的理论和实用价值。 论文研究从二元合金的制备方法以及电极表面改性修饰两方面展开,对钴镍合金电极、钴铁合金电极在烧结和熔炼成型后的表面结构、化学构成,经电化学处理及酸粗化处理后的表面微结构等都进行了基本表征,详细研究了这些电极在电解水反应中的性能。结果表明二元合金电极在电解水过程中具有较好的电化学稳定性。 论文书写规范,数据可信,讨论深入,结论合理。这表明该生掌握了相当程度的基础知识和专业前沿的信息,具有一定的独立从事科学研究的工作能力。同意该生在修改论文后参加学位答辩。,0,1,0,0,1,1,1,0,0,0,1,0,0,0 +857, 汪立三先生创作的钢琴作品《涛声》民族色彩鲜明,运用多元素音乐的和声手法,全曲基调慷慨激昂。该论文论点较明确,能结合弹奏实践去分析研究,有一定的研究意义。 上次评审时提到的在第三章第二大点踏板的使用和处理中的第三小点“织体集处踏板的使用”,标题的错误已修正,论文的创新点也已明确。 但上次评审时提出的论文结构问题未做调整!第三章中的第三大点情感表达过于空泛,且不能与第四大点个人演奏心得割裂开,应合为一点,把情感和演奏结合去分析,让论证更充分。,0,1,0,0,0,0,1,-1,-1,0,0,1,0,0 +804,在移动端虹膜识别中,传统的虹膜定位方法存在定位精度不高的问题。为此,作者对移动端虹膜识别中的虹膜定位方法展开了相关研究,主要包括两个方面的工作:(1)提出了一种基于混合测地线演化的虹膜定位方法,以提高移动端虹膜识别中虹膜定位的精度。(2)提出了一种基于改进 Grow-cut 的虹膜定位方法,以提高移动端虹膜识别系统的效率。从提供的实验数据上看,上述两个方面的工作都取得了一定成效。从论文上看,作者研读了一定数量的相关文献,基本能够紧跟学科前沿,具有一定的理论基础和专业知识。整个论文的工作量一般,相关分析和结论基本合理,表述基本清楚,图表完备,达到了硕士学位论文水平的要求。,0,0,1,-1,1,0,1,1,0,1,1,0,0,0 +2799,论文研究了适用于土方机械视频动作识别的算法,建立了一个包含700多个视频片段的土方机械视频数据集,并通过数据增强的方式将数据集扩充到1000多个视频片段。此外论文还设计了一种基于注意力机制结合3D残差网络的土方机械视频动作识别算法,通过与基准算法对比证明了本文算法的有效性。同时本研究算法也与C3D网络、P3D网络算法作对比,验证本研究算法的优越性。达到硕士学位论文水平,但存在以下问题:1、第19页三个标题的格式没有统一。2、在图名中加参考文献是否符合学校的要求,建议参考文献在正文中标注。图2-10C3D[60]卷积网络架构图2-8SlowFast[53]网络架构图2-7双流卷积网络架构[46]3、论文中提到数据集共有700多个视频,通过数据增强后的土方机械各动作类别数量均是200多,总视频数量1100多,从数据上感觉增强后的数据数量提升50%,不是特别多,到底增强多少数据对算法的提升的作用最大,应有实验展示。4、论文选取几何变换的方式对自建的土方机械视频数据集进行增强,但没有详细介绍相关算法。5、论文在3.5.23D残差网络验证数据集实验结果中使用3D残差网络,却在4.23D残差网络中进行介绍,结构不当。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +2649,论文基于市销率法研究了半导体行业上市公司估值问题,选题具一定的理论意义与较强的现实价值。文献综述比较全面,评价中肯、妥当,反映了作者具有一定的文献综述能力。结构安排较完整,层次清晰,条理性好,论点比较突出,资料充实,数据可靠,技术方法选用得当,分析较全面,建议有一定针对性。反映了作者能够正确运用所学理论基础知识分析与解决现实经济问题。文字表达流利,思路清晰,格式规范。工作量达到硕士论文要求。不足与修改建议:(1)摘要部分是全文内容的概况总结,包括研究背景、研究意义、研究内容、创新点等,建议在摘要最后添加创新点或者研究贡献的内容。(2)文献综述尽量首先按照研究领域来划分小标题然后再区分国内外阐述,现在是先国内外后研究领域,建议按照研究领域的划分与论文题目之间的关系进行梳理。(3)注意文中大标题用词的一致性,比如论文题目是半导体行业上市公司,第三章标题是半导体企业。(4)结构方面,第四章的章标题“案例分析”建议改为“第四章半导体行业上市公司估值应用——以上海贝岭为例”等更细化的称呼。第17页“三、小结”从逻辑看是半导体行业上市公司估值方法的选取,建议改为此。另外,第二章和第三章其实都是在对估值方法比较与分析之后选择适合半导体行业上市公司估值方法,为何不合并为一章?而且基础知识较多,实际分析采用市销率法的理由方面的内容不多、不够深入。,0,1,1,0,0,1,-1,0,1,0,0,0,0,0 +2295,本文的主要目的是针对方言语音建立一个语音交互系统,选择融安方言作为研究对象,分析其语音特征并提出一种改进的特征提取算法,具有一定的而研究价值。但文章存在如下问题需要修改和强化:1、文中的大量的基础方法介绍,而针对融安方言的特点及识别的难度等交代不充分。2、目前已有很多在MFCC基础上改进的语音识别和合成方法,但文中没有涉及所提方法与相关改进方法的比较,致使所提方法的优越性难以很好体现。3、第五章测试跟读识别能力比第三章训练数据识别准确率高的依据和原因是?4、第五章仅给出了“出现”的合成结果,建议增加第三章表3-1中常见词和行为词的合成结果,并做相关对比分析。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +268,该论文针对生鲜制品“新零售”物流配送选址-路径优化问题,基于双层规划理论,构建了生鲜制品物流配送选址-路径优化问题的双层规划模型,模型中计入了生鲜制品损耗成本、时间窗以及顾客满意度等因素的影响。选题具有一定的工程实用价值,且作者对该学科相关知识有较好的认知。然而,论文所采用的理论模型及求解方法均已有相关文献,创新性一般。论文写作过程中,出现多处排版问题、错别字以及数据问题等,希望作者对自己的硕士学位论文有足够的重视。,0,1,0,0,1,0,-1,0,0,0,0,-1,0,0 +1874,论文针对车辆保险领域的智能问答系统进行研究,提出一种基于深度学习的车辆保险问答系统的研究和实现方法。针对缺乏开源的中文车辆保险领域语料库的问题,自建了问答索引库,并结合BM25算法建立了候选问题集;提出了一种改进的用于问句匹配的 Transformer-ESIM模型,解决了ESIM无法获取词语上下文之间联系及保留句子的高层语义信息的问题;实现了一个具有较高准确率的车辆保险智能问答系统。 论文选题具有一定应用价值,研究具有一定的技术创新性,层次清晰,撰写比较规范,表明作者具有一定的科学技术研究能力。,0,0,0,0,0,1,1,0,1,0,0,1,0,0 +1614,论文根据水下运载装备运行工况需要,以软体仿金枪鱼机器人为对象,开展设计研究,选题具有一定的学术价值和工程实际意义。 论文完成了软体仿金枪鱼机器人的本体设计,并采用简化的单边平直式模型研究了腔结构尾部驱动器变形机理,得到了弯曲角度与内腔压力的关系;通过数值模拟分析,给出了腔结构尾部驱动器最佳壁厚;最后,利用硅胶成形工艺方法,完成了软体金枪鱼的制作和验证。研究内容饱满,具有明显的创新性。 论文结构较为规范,观点基本正确、条理清晰,表明作者具备了一定的科研能力,掌握相关领域的基础知识。,0,1,0,0,1,1,0,0,1,0,0,1,0,0 +2313,本文题目设计合理;相关概念界定清晰,引证资料丰富、准确,论证分析方法适当,语言表述较为准确、流畅,有一定层次结构,体例基本规范。体现作者具有相应的科研能力。符合本专业硕士研究生学位论文的相关要求。本文在写作中还存在以下不足:1,文献综述按惯例应在第一章第二节,随后才是研究内容与方法;现在主流综述不是按国内外来划分,按观点;且不应简单罗列;2,第二章标题与内容不吻合3,第三章标题建议不用介绍二字,发展概况或其他;,1,0,-1,0,0,1,0,1,1,0,0,0,0,0 +1826,论文以泡沫铝材料作为研究对象,研究薄壁泡沫铝夹心结构芯层泡体的形成。论文选题具有一定研究价值。 论文研究方向明确,通过归纳、总结,能够反映国内外相关领域的发展现状。论文采用粉末冶金工艺制备氢化钛含量为 0.6%、0.8%、1%的纯铝基泡沫铝预制体,然后将预制体密封在固定体积的型腔中密闭发泡,制备泡沫铝。研究氢化钛添加量对纯铝基泡沫铝预制体在密闭模具型腔中的发泡行为,探索泡沫铝预制体在密闭型腔中泡孔结构的演变过程,探究氢化钛含量、保温时间等工艺参数对泡孔结构稳定性和均匀化的影响。研究结果表明:随着密闭型腔体积与氢化钛含量的提高,有利于泡沫铝预制体发泡,在4倍体积密闭型腔中,泡孔数量开始下降,出现实铝层现象。以第一作者撰写的1篇学术论文已被中文期刊接收。 论文结构尚可、书写较规范,层次分明,内容需整合,文字表达流畅。经认真修改后基本达到硕士学位论文的要求。,0,1,1,0,0,0,1,1,1,0,0,0,1,0 +246,该论文通过以喷杆位置、药液剩余量、喷嘴状态、喷雾压力为主要监测对象,对植保机喷杆位置测控系统进行了硬件设计和软件开发,并采用模糊与 PID 切换控制方法,对喷杆悬架进行控制,最后采用 CAN总线与基于 ARM-A8 的 开发平台,对系统的主要功能进行了测试,达到了预期目标。 论文选题有较好的实用价值,论文在对喷杆悬架控制算法方面有一定的创新,论文作者对所要解决问题的目的及意义论述较为清晰,研究方向明确,能够掌握课题的国内外研究动态及其评述。论文结构合理,层次清晰,方案设计较为合理,逻辑性较强,结论可靠,写作较为规范,达到硕士论文要求,同意答辩。,0,1,1,0,0,0,1,0,1,1,0,1,0,0 +559,论文以断路器内电场与气流场仿真为基础,并结合混沌理论,以三级缩放喷口的高压SF6 断路器吹弧气流动力学行为为主要研究对象,对非定常、非线性电弧时间序列图、激波及湍动气流动力学行为展开研究,探讨分闸特性曲线影响复杂灭弧系统气流参数演变的内在物理本质和运动规律。论文分析得到了一定的结论,对工程实践具有一定的指导意义。 论文书写规范,逻辑合理,反映作者具有一定的分析问题、解决问题的能力。,0,0,0,0,1,1,1,0,1,0,0,1,0,0 +1096,本论文以水系锌离子电池为背景,以铵基钒氧化物作为电池正极材料为研究对象,对材料的电化学性能和储能机理开展了研究工作。通过水热法制备了两种铵基钒氧化物正极材料,所制备材料具有优异的电化学性能。 该论文选题具有前沿性,作者查阅资料全面,研究内容深入,结果分析合理,结论可信。作者掌握了水系锌离子电池领域的实验技能与基础知识,具备独立开展科研工作的能力。,0,1,1,0,1,1,0,0,0,0,1,0,1,0 +510,"论文研究H 型运动平台中单轴控制方法和各直线电机的同步控制方法,研究内容具有重要的理论意义和应用价值。 论文主要工作为: 1、建立了直线电机数学模型,以及在考虑各种不确定因素影响的情况下建立H 型运动平台的数学模型。 2、针对存在单轴位置跟踪误差的问题,提出了积分反演自适应滑模控制方法,并进行了仿真分析。 3、设计递归神经网络用来估计系统的集总不确定性,设计鲁棒补偿器来解决系统中存在的最小重构误差问题,以进一步减小由于不确定性等因素对单轴电机位置精度的影响。通过仿真分析对算法进行了分析。 该论文条理清晰,语句通顺,撰写符合规范。论文工作表明作者在本门学科掌握了坚实的基础理论和系统专门的知识,具有较强的从事科学研究工作的能力。 同意组织答辩。",0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2569,高管在推动企业创新发展方面发挥着关键作用。高管的个人特征变量(高管教育背景、高管学术背景、高管海外背景等变量)对企业的战略决策、研发投入与企业研发绩效具有重要的影响作用,本文选题是一个非常有价值的课题。本文研究内容对于弄清楚高管个人特征变量对于企业研发投入和企业绩效关系,提供公司治理借鉴,并为企业在聘用、培养、选拔核心高管提供实践指导,研究结论为我国上市企业的研究提供新的研究方向和经验数据,是一篇非常有理论意义和现实意义的企业管理选题论文。本论文基于技术创新理论、高阶梯队理论和委托代理理论从高管特征变量的调节作用视角,对企业研发投入与绩效问题进行了研究。本文本文在综合梳理国内外有关研究成果的基础上,采用规范分析与实证分析相结合的研究方法,以沪市A股上市公司为研究样本,对上述问题进行了研究。本论文揭示了高管的个人特征对研发投入与公司绩效关系之间的调节作用机制,丰富了高管个人特征对研发投入与公司绩效的调节作用的实证成果,拓展了对高管个人特征与研发投入和公司绩效关系的认知。论文内容丰富,逻辑思路清晰,文字表达流畅,研究方法科学合理,研究内容颇有创新,研究结论科学合理,经得起推敲,管理启示对于公司治理具有实践价值。从论文完成整体看,作者企业管理专业功底扎实,受过科学研究素养和研究方法的系统训练。综上,本论文已达到本专业的硕士学位论文的要求和标准,同意直接参加答辩。存在的问题及其不足之处:第一,高管的个人偏好及其特征变量的选取要求科学的分析,应该从多种要素中选取。例如,高管不仅仅存在教育背景、科研学术背景、海外背景,还存在个人实践经历、隐性知识积累、顿悟性决策思维偏好、高管的心智思维模式变量、个人价值取向等多种变量因素,这些变量因素对该问题都有一定的调节作用和解释作用,为什么只选取文中的三个变量予以研究?要予以科学解释和说明。第二,影响企业研发投入和出创新绩效的调节作用的因素是多维的复杂的。例如,团队在企业研发投入和战略性决策中的影响也是不容忽视的,知识的价值创造与经济绩效之间的中间变量也是不得不考虑的问题,等等,这些都需要进一步完善。第三,关于写作质量问题。文中有错别字,例如第15页倒数第14行,“企业家”写成“企业价”等等,需要认真校对文稿,进一步提升论文质量。,0,1,0,1,1,0,-1,1,1,1,1,0,0,0 +416,论文对基于机器视觉的白酒瓶瓶口缺陷在线检测系统进行研究,选题具有一定的理论意义和重要的应用价值。 论文结合实际研究项目,通过市场调研和查阅文献资料,对国内玻璃瓶瓶口缺陷检测的发展状况进行了分析。主要开展了以下几方面工作: 1.通过成像实验解决了白酒瓶瓶口检测时成像品质差的难题,搭建了白酒瓶瓶口的成像系统; 2.编写了白酒瓶瓶口缺陷检测图像处理算法,并通过图像算法实验,提升了瓶口缺陷检测的检测精度; 3.编写了白酒瓶口缺陷检测软件界面,并构建了运动平台模拟生产线的传送带; 4.将检测算法嵌入检测软件,形成白酒瓶瓶口缺陷检测系统。 论文既有理论分析,又有实验验证,取得了较好的检测结果。论文工作量饱满。论文撰写条例清晰,层次分明,符合科技论文写作规范。达到了硕士学位论文的要求,可以进行答辩。,0,1,0,1,0,0,1,0,0,1,1,0,0,0 +626,论文针对基于CUDA平台的有限元单元级别并行算法展开研究,选题具有较好的研究价值。论文首先以传统有限元法为基础推导了单元级别的有限元并行算法,并给出了第一类边界条件的EBE处理方法;以此为基础,推导了结合Jacobi预处理技术的EBE-CG方法的具体迭代过程;结合CUDA硬件平台,提出了在其平台上实现EBE-J-PCG方法并行计算的CPU-GPU协同计算模型,最后在CPU和CUDA平台上使用EBE-CG方法和EBE-J-PCG方法分别计算了一台单相变压器的主磁场分布,通过仿真计算对所提的并行计算策略及方案进行了相应验证。 论文写作质量好,工作量较大,反映出作者具有良好的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意答辩。,0,1,0,1,1,1,0,1,0,0,0,0,0,0 +1662,论文能够运用所学财务分析相关理论解决案例公司财务风险识别、控制的现实问题。选题有一定现实意义,但选题新颖度非常一般。论文框架结构合理、研究思路清晰、格式基本规范,论文文献综述能够关注国内外较新研究成果、有综有述,论文分析问题较为全面、能够运用数量分析方法分析并得出结论,相关研究结论对于燃气企业财务风险管控有一定现实启示。,0,1,1,0,0,0,1,0,1,1,1,-1,0,0 +1476,该学位论文以生物质废弃物为原料,经过改性制备生物质碳吸附剂,用于有机污染物、重金属离子及二氧化碳的吸附,实现以废治废。论文选题符合专业培养目标,具有一定的实际意义和应用价值,但创新性一般。论文内容较为完整、书写较为规范,层次结构安排合理,逻辑关系清楚,语言表达流畅,选取的参考文献较新,达到硕士毕业论文的要求。,0,1,0,0,0,0,1,1,1,0,0,-1,0,0 +2186,作者以QOA税务局作为案例研究对象,通过问卷调查了解QOA税务系统内部控制存在的问题既原因,通过层次分析和模糊综合评价等方法对QOA税务局内部控制问题进行了分析挖掘,归纳总结QOA税务局当前面临的主要问题在及其原因。作者认为QOA目前的内部控制手段不能从根本上保证内部控制质量,需要建立一套新的行之有效的内部控制方法。作者进一步结合实际提出了优化措施,具有一定的实践意义。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +889,本文题目“黑龙江省武术新三字经项目开展现状调查研究 ”这一选题符合体育教学硕士学位的定位。本选题具有新意和开创性,对现今大学生的生活指导有一定理论意义或实用价值;该作者有一定的专业基础理论及专业知识运用能力;该论文论点清晰,研究方法较为科学,结论较为合理。内容结构不够严谨,逻辑性偏弱,材料引证略有不足,文字表达清晰,学风严谨,态度认真,文字、图表的准确和规范。有一定的研究难度。基本符合硕士论文要求,建议修改后参加答辩。,0,1,0,0,1,1,1,1,-1,1,1,1,0,1 +1385,该论文针对双三相永磁同步电机,研究了基于脉振高频注入法和模型参考自适应法两种方法相结合的无传感器控制方法,通过仿真建模验证了该复合控制的正确性,并实现了平滑切换,具有一定理论价值和应用价值。论文思路清晰,结构较为严谨,分析合理,逻辑性较强,体现作者具备一定的基本知识运用能力和科研能力。论文写作也比较规范,符合硕士毕业要求。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2075,行政诉讼法规定的简易程序与其他诉讼法的简易程序相比,法条数量少,司法解释的数量也少,从立法与实务角度看,都有研究空间。尤其《行政诉讼法》第101条规定,简易程序本法没有规定的,适用《民事诉讼法》的相关规定。究竟两法的简易程序有何相同的本质,从而可以参照适用哪些规定,固然是行政诉讼简易程序的难题,也是诉讼一体化理论研究的绝佳课题。因此该文选题具有立法、司法和理论价值。 本文采取现状——原因——对策型论文结构,在对策之前介绍域外立法例,对策既有参照国外,又有自己的创想。具体而言,作者先点出行政案件适用简易程序数量少的现状,认为是源于立法在适用标准、启动方式、审理规则等方面不明确、“操作性差”。主张照搬或移植域外立法规定,完善立法,例如借鉴我国台湾地区立法,提高数额标准。作者还主张,在简易程序中“增设调解程序””适当细化文书”“增设简易程序异议权”,这几点都没有国外立法例的支持。 本文选题得当,结构普通,思路不成熟,观点论证不够充分。是一篇平庸之作。,0,1,0,0,0,0,0,0,1,0,0,-1,0,0 +2034,随着现代材料科学的不断发展,传统水泥基材料也更加迅速地向着高强、绿色、可持续、高性能、超耐久性、多功能和智能化发展。纳米级石墨烯材料能够很好的填充到水泥基材料的细微空隙中,提高水泥浆体的强度及韧性,延长水泥基材料的使用寿命。 论文采用有限元软件对石墨烯增强水泥基复合材料的电学与力学性能做了数值模拟,并开展了电学和力学试验,论文选题以及研究内容具有一定的创新性和前瞻性。论文研究思路清晰,方法合理,写作规范,研究结果对于石墨烯增强水泥基复合材料的理论研究及应用具有一定价值。,0,1,0,0,0,0,1,0,1,1,1,1,0,0 +488,论文选题具有较好的理论意义和现实意义,在全产业链模式下研究辉山乳业的融资问题具有较好的研究视角。论文主要采用案例分析法对目标公司的融资问题进行研究,揭示并剖析了辉山乳业的融资问题,论证了其融资问题与全产业链模式的相关性。但对其融资背后的动因缺乏深入了分析。论文有一定的创新性,研究思路清晰,写作格式规范。,0,1,0,0,0,0,1,0,1,0,0,1,0,0 +2403,本研究通过手工模压成型制备碳纤维环氧树脂(CF/EP)复合材料,并利用实验和模拟方法对CF/EP复合材料的力学性能展开研究,该论文选题较新颖,论文文献调研较全面,数据较详实,基本达到了硕士论文的水平。论文建议改善以下几方面内容:1、论文中碳纤维织物采用手工成型,制备流程是否标准,能否保证材料制备的统一性和均匀性?2、全文均用强力体现力学性能,是否考虑过织物厚度参数对力学性能的影响?能否用强度表现复合材料的力学性能?3、图3-5中的位移-载荷曲线为何出现不光滑的锯齿形状?4、论文格式问题较多,尤其参考文献中杂志名称存在全称和缩写混用的格式问题,建议仔细检查修改。,0,1,1,0,0,0,-1,0,0,0,0,0,0,0 +1562,论文《面向加工特征的曳引机机座的工艺规划方法研究》主要针对传统工艺设计时间成本高、对人工经验过渡依赖、自动化程度不够等问题,运用 MBD 模型特征识别信息提取、知识工程、智能算法等技术,构建智能工艺决策系统。以曳引机机座为研究对象,结合企业实际生产需求进行了工艺规划方法研究。 论文的主要工作和研究成果如下: (1)采用边界表示的特征识别方法结合 MBD 模型工艺信息表述完整的特点,实现了零件特征的自动识别,提高了识别效率,减少了对人工的依赖,为后续的工艺路 线决策提供了高效的特征信息识别基础。 (2)在对知识与知识库的分析基础上,结合企业的实际情况,确定工艺知识库中 零件信息、制造资源和工艺规则的知识表示方法,构建工艺知识库。 (3)将蚁群算法应用于工艺路线优化中,建立数学模型,制定工艺约束,引入先 置表来表示加工单元的优先级关系。实现零件的工艺路线优化。 (4)开发了一个曳引机机座零件的智能工艺决策系统,集成了特征识别、工艺知 识库、工艺决策三大模块,实现零件的智能工艺规划。 论文结构完整、理论严谨、思路清晰、逻辑性强、工作量充足,并具有一定的创新性。文章格式符合学术规范,表明作者掌握了扎实的基础理论和系统深入的专门知识,具有独立从事本专业专门技术工作的能力,达到了工学硕士学位论文要求。,0,0,0,1,1,1,1,0,1,0,0,1,0,0 +1839,论文以网络流量分类问题为研究背景,采用机器学习方法,设计了基于LeNet-5网络的恶意流量分类方法和基于特征融合卷积神经网络的加密流量分类方法。选题明确,对于网络流量的准确分类具有一定的理论意义和实用价值。 论文采用卷积神经网络技术,将流量分类问题转变为图像分类问题。首先将原始网络流量预处理为卷积神经网络的输入形式,然后基于LeNet-5网络,设计端到端的分类模型,解决了网络流量分类时需要进行特征选择的问题,并且使用Inception模块和瓶颈层,既融合了更多的特征,又能适当降维,促进分类查准率和查全率指标的提高。研究方法和技术路线明确,分析过程较严谨,结论正确,工作量较饱满,表明作者已基本掌握专业相关知识,具有较好的独立从事科研工作的能力。 论文结构逻辑清晰,文字表达基本准确,图表较规范。,0,0,0,1,1,1,1,1,1,0,1,0,0,0 +13,《储电与空调负荷联合削峰填谷优化方法研究》的硕士学位论文以储电与空调负荷参与的电网削峰填谷优化方法为研究对象,建立了电池储能系统参与电网削峰填谷优化模型,对优化模型求解并进行了实例仿真分析;建立空调系统模型,分析与研究空调系统参与电网调峰策略并进行了算例分析; 构建了储电与空调负荷共同参与的削峰填谷优化模型,对模型求解并进行了仿真分析,仿真结果验证了构建的储电与空调负荷联合参与的电网削峰填谷优化策略能实现良好的削峰填谷效果,达到了预期的研究目标。 论文选题具有较好的应用和科研价值;阅读资料较广泛,综合分析较好,基本了解该领域国内外学术动态,对国内外该选题及相关领域发展现状的归纳和总结情况比较充实;论文引用相关材料充分;论文写作过程的立论正确,有理论分析和仿真及算例验证,逻辑清晰,文字简洁流畅,结构合理,能将理论运用到实践中并独立完成论文工作,反映出作者掌握了相关的基础理论和专门知识;论文达到了工学硕士论文的要求。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +11,《A石化公司价值增长关键驱动因素及提升策略研究》一文选题符合专业硕士学位的要求,具有较强的使用价值;论文的研究角度和相关因素分析上有一定创新;相关研究的理论总结和国内外研究现状梳理比较全面,基本掌握本学科的知识,具有分析问题解决问题的能力,论文的写作比较规范,语句流程表达准确,论文的结构也有一定的逻辑性,达到了硕士学位的要求。,0,1,1,0,1,1,1,1,1,0,0,1,0,0 +187,大型风力机组结构庞大,工作环境恶劣。由于庞大的工作载荷,主轴承经常出现故障,因此如何快速识别主轴承的故障非常重要。主要工作如下: (1)研究了基于小波和小波包方法的大型风力机主轴承的振动信号降噪方法,实验结果表明,所采用的降噪方法可提高信号的信噪比,为后续故障提取和识别奠定了基础。 (2)研究了基于多尺度排列熵的主轴承故障特征提取方法。首先用滚动体故障信号进行多尺度排列熵参数的选择,其次对实验信号进行多尺度排列熵进行特征提取,然后利用神经网络方法和极限学习机方法进行故障部位识别并进行比较。最后用MPE-ELM方法对大型风力机主轴承振动信号进行故障分析,能准确识别故障位置。 (3)针对主轴承发生故障时会出现脉冲激励的问题,通过EMD-ELM方法进行故障程度的分析,对降噪后信号用EMD方法分解,利用能量的关系建立特征向量,用ELM和神经网络方法进行故障识别。结果表明,研究的新方法能确定故障程度。 综上,本文结构较清楚,文字叙述较流畅、逻辑性较好,符合学术规范,达到了硕士学位论文水平,同意答辩。,0,0,0,0,0,0,1,1,1,0,0,0,0,0 +1967,论文主要针对基于状态信号的非线性系统特征值提取方法展开研究,采用不同的非线性特征提取算法对柔性关节机械臂模型进行分析。通过机械臂拉格朗日动力学方程理论,推导出关于柔性关节机械臂的动力学方程,并对其状态信号进行分析,研究非线性因素与状态信号特征值之间的关系。在研究LASSO算法原理以及LASSO算法参数确定、核极限学习机原理的基础上,提出一种改进的LASSO-PCA-KELM算法,并通过实验仿真验证其合理性,有一定的创新性见解,论文格式基本符合规范。,0,0,0,0,0,0,1,0,0,0,0,1,0,0 +3005,以某型装载机动臂为例,对其进行了焊接仿真分析与实验研究,找到了动臂的最优焊缝尺寸取值范围,并将此最优取值范围与前方的评价模型进行对比,发现相同板厚情况下的T型接头焊缝尺寸最优取值范围与动臂焊缝尺寸最优取值范围相同。通过T型接头进行机理研究时所建立的评价模型,能够预估得到以动臂为例的工程机械大型结构件焊缝尺寸最优取值范围,建立起了动臂的焊接残余应力及变形情况预估模型。论文选题具有较好的理论意义和实用价值。作者通过阅读大量的国内外相关的参考文献,对本课题所在领域有一定的理解,基础理论知识和专业知识扎实,创新能力尚可,能熟练应用相关计算机软件,具备从事科学研究的能力。论文层次清晰,但语言文字描述过于重复,不够简洁;国外参考文献年限较长,缺少现阶段的参考文献;稀释率是否对残余应力及变形有影响?对不同厚度的中厚板,文中优化后得到的参数是否适用?建议对部分内容适当修改后,同意进行答辩。,0,0,1,0,1,0,0,-1,0,0,0,1,0,0 +1706,论文选题结合企业生产实践进行深入研究,选题有一定的理论意义和实用价值。能较好的了解国内外动态,并在前人工作的基础上确定自己的工作。较好地掌握基础理论和系统的专门知识,所选课题有一定难度,工作量适中。该文作者有一定的科研工作能力,研究的思路和方法可行,数据真实,有一定的创新性,研究的成果有一定的应用价值。论文论述条理清晰,层次分明,有逻辑性,文笔较好,图表较工整规范,文风较严谨。,0,1,1,1,1,1,1,1,1,1,1,1,0,0 +2615,论文达到硕士学位论文水平修改建议:1、解释公式中的参数时,出现式(2-1)中参数…,需要顶格写,如第9页“式(2-1)”,第38页“式(5-1)中”,出现这样情况的全文都需要进一步修改。2、公式中出现的参数需要逐一说明,并且一致。如第9页式(2-1)参数描述的W、H、D与(2-1)中出现不一致,下角标没有写,或者需要对下角标做出说明。如第9页式(2-1)参数描述的W、H、D与(2-1)中出现不一致,下角标没有写,或者需要对下角标做出说明。第39页中式(5-3)、(5-4)中的部分参数没有说明。请认真检查,杜绝此类现象。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +1646,论文立题依据充足,能够理论联系实际,解决应用中的关键技术问题,论文的工作量满足硕士研究生的论文要求,内容比较充实,对氧化锌避雷器的基本原理,失效机理及对应的分析方法有充分的论述。仿真模型的分析合理。论文的核心是数字锁相放大器算法及实现方法,理论分析比较充分,仿真分析及算法验证工作到位,结论正确。实验验证环节有欠缺,数字采样分析及算法分析内容不足。,0,1,0,1,0,0,-1,0,0,0,1,0,0,0 +793,有效的心脏健康状况的检测方法和手段一直是生物医学工程的一个研究热点。本文对心阻抗与心电信号的检测方法进行研究,选题具有理论意义和实际应用参考价值。作者在学习了解和分析胸腔生理模型、心电与心阻抗信号的产生原理及其检测方法的基础上,设计了一种基于阻抗法的无创心阻抗血流图检测系统,对相应的硬件、软件的研制进行了探讨,并对所研究的检测方法进行了实验测试,以证明其可行性和有效性。论文层次分明、概念清晰、表达较为流畅,写作基本符合规范要求。论文工作表明作者较好地掌握了本学科的基础理论和相关专业知识。,0,1,0,0,1,0,1,0,0,0,0,1,0,0 +1050,Cu/Al复合板的力学性能和电导率取决于界面的质量、厚度和相组成,本论文研究Cu/Al复合板在不同时间、不同温度下的界面微观结构具有重要的实用价值。 论文作者查阅了较多的国内外相关文献,对本课题的国内外研究动态的掌握全面、评述客观,对本论文所要解决问题的目的及意义的论述充分,目标明确。 论文研究了铸轧态复合板界面形貌及特征,分析铸轧成形时铜/铝复合板特点;研究复合界面组织,并对扩散层形成的金属间化合物进行了分析;分析了不同受热条件对铜/铝复合板扩散层的性能、组织特征及其稳定性的影响;模拟实验结果验证了铜铝复合板受热过程中的扩散现象。研究成果的实用价值较大,具有一定的创造性,论文的难易程度适宜及工作量饱满。作者扎实掌握了本专业理论知识和实验技能,具备较强的独立从事科学研究的工作能力。 论文撰写概念清晰,分析较严谨,实验及模拟结果真实,所得结论真实可信。论文撰写格式较规范,表述清晰。,0,1,1,1,1,1,1,1,1,0,1,1,0,0 +1241,"箔片气体动压轴承具备稳定性强、转速高、耐高温、精度高、功耗低、系统简单、易于维护、 寿命长等特点,已被广泛地应用于透平机械,如涡轮泵、透平压缩机、涡轮发电机等。本文选择对箔片轴承加工制作方面得相关问题进行研究,具备较好的应用工程基础研究背景。论文的主要研究为箔片轴承的设计制作方法以及箔片之间的微动磨损等方面,包括:1. 建立了箔片气体动压轴承的压力控制方程和气膜厚度方程,分析研究了箔片轴承气膜压力与厚度分布规律,发现箔片轴承的承载能力随着箔片的厚度增加而增加;2. 研究了箔片轴承材料选择与轴承加工制作工艺。 设计了凹凸模冲压方式的波箔片冲压模具,基于热膨胀分析, 优化了箔片定型模具尺寸,在此基础上制作出了箔片气体动压轴承样件,并进行了箔片动压轴承起飞测试实验;3. 研究了箔片轴承起飞实验中产生的微动磨损现象及其对箔片轴承的影响。研究获得了较好的箔片轴承加工制作和工艺方面的研究与实验基础,可对箔片轴承的设计和制造提供一定的支持。 论文条理清晰,结论合理。总体达到硕士研究生论文水平。",0,1,0,0,0,0,0,0,1,0,1,0,0,0 +511,论文研究变压器线圈绝缘层累积破损问题,选题具有工程意义。论文的主要研究工作有 (1)分析了变压器中的机械力的产生和传递、轴向机械力对变压器的影响。 (2)用液压伺服疲劳实验机,模拟了多次开闸合闸和电流突变作用下绕组与绝缘垫块间相互接触的疲劳,改变载荷大小、频率以及循环次数,实验观察了线圈绝缘纸在不同的循环机械力特性作用下绝缘层破损情况。 (3)用有限元法对变压器线圈进行仿真分析,得到了变压器线圈绝缘纸在不同条件下所受到的应力以及发生的变形。 论文层次清晰。论文研究工作表明已经达到硕士论文的要求,同意答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2227,1.此类选题目前已经不具有创新性。作者从研究方法既内容上看也未有新的贡献。2.关键文献和重点文献不足,中文文献有1/3来自硕博士论文,降低了作者文献分析过程的可信度。3.多出逻辑不严密,例如:“现金流折现模型确定的拼多多企业价值在一定程度上被低估”“由市净率法得到估值结果可知,拼多多的实际价值被低估。””用市销率模型得出的拼多多价值被低估”。作者这么表述的逻辑何在?如果是以当日市值为比较,那么作者适用方法错误,是不是也是一种逻辑呢?4.理论基础不严密,且多有表述不规范。5.存在错别字以及英文摘要错误。6.特别说明:平多多商业模式是否适用该模型?目前看,该模型被滥用了。拼多多不类似微博等社交媒体估值。,0,-1,-1,0,0,0,-1,0,-1,0,0,0,0,0 +2273,本论文选题有较好的现实意义,研究结构合理,研究思路清晰,研究方法可行,论文写作逻辑性较好,研究结论有一定的参考价值,论文质量达到硕士学位论文水平。存在的问题:1、文中除了传统的评估方法,还介绍了三种现有的评估方法,为什么选用改进CLV,而不是其他两种方法?需进行阐述。或者其他两种方法不在文中介绍,重点介绍CLV方法。2、改进CLV模型用于评估互联网视频企业价值,评估效果如何?这需要进行比较,与现有评估相比,与传统评估方法相比。本论文需增加评估效果比较。,0,1,0,0,0,0,0,0,1,-1,1,0,0,0 +2300,本文对广西地区米粉店线上点评做了较全面、较深入的文本分析,数据分析结果对商家和消费者都提供了非常有价值的信息。论文选题具有非常重要的实际意义,能从多个角度全面的进行数据挖掘,所采用的技术方案、方法是非常适当的,所得结果比较可靠。论文格式规范、结构合理、内容准确、语言通顺,达到硕士学位论文水平要求。论文的不足之处是不平衡数据处理方法有点简单,只是在数据层面处理了数据,为来可以从算法方面考虑。英文摘要中有不符合语法规则的语句,建议进一步修改。参考文献中英文作者名的表达形式不一致,英文期刊名表达形式不一致(统一成全称或简称),建议修改。,0,1,-1,0,0,0,1,1,1,-1,0,0,0,0 +970,数学建模是一种数学学科核心素养,作者围绕学生数学建模能力培养进行研究,选题有一定的现实意义和实践价值。作者写作思路基本清晰,论文结构安排基本合理,能够针对拟订的问题,科学运用相应的研究方法进行研究,论文研究关注当前义务教育数学课程改革中的热点问题,研究有一定的难度,工作量较饱满;论文的研究成果对教师如何有效开展数学建模能力培养有一定的借鉴价值和启示作用。论文语句基本通顺,表述基本清楚,文字、图表基本准确规范。总体上看,符合硕士学位论文要求。 ,0,1,0,1,0,0,1,1,1,0,1,0,0,0 +2752,论文选题具有一定理论与实践意义,作者能够搜集一定数据与文献进行分析与研究,文章结构安排总体上较为合理,逻辑较为清晰,格式较规范。论文达到硕士学位论文水平。有几点问题有待商榷或修改完善:1,研究结论中“以高管人力资本价值分成率乘以企业预期收益得到高管人力资本价值”,表述不够恰当。2,39页中线性回归方式“对企业净利润进行预测,得到回归方程为y=2666.4x-3140.9”,该回归方程如何得到交代得不够清楚。3,从图5-1该公司2015至2020年一直在高增长,其高增长的驱动因素是什么?这种高增长还会持续下去吗?要加以补充一些分析。因为人力资本价值的计算是建立在这种利润高增长基础上的。,0,1,1,0,0,0,1,0,1,-1,-1,0,0,0 +2448,"该论文为翻译实践报告,是在《某品牌乘用车维修手册》中“驾驶员信息系统”和“转向系统”翻译实践上进行的,选题符合翻译硕士研究生论文选题要求,所提出的翻译方法对提高译者的翻译水平具有一定的帮助,对当前的翻译实践也有较好的借鉴作用。该翻译实践报告是纽马克的交际翻译理论指导下,从词汇和句子举例分析翻译过程中遇到的难点,其中对词汇的翻译主要有专业术语、专有名词和词性转换三大难点;对句子的分析和翻译主要是对科技文本当中的被动句、复合长句以及无主语句的翻译。总体上看,该研究报告对原文理解和分析的较为透彻,显示出了较扎实的翻译理论和翻译知识,条理性较清楚,逻辑性和综合分析能力较强,所使用的研究方法和研究能力达到了翻译硕士实践报告的相关要求。论文不足和需要修改的方面如下:一、语言运用不规范,还待于进一步提升,主要表现为:(1)语言不准确,如“Newmark(1973)arguedthatevenfortextbasedoninformation,readershavetherighttoexpecteverythingbutspeechtobereproduced.”(P21);“TherearedifferentexpressionsinChineseandEnglish,anditoftenhappensthatthesamemeaningisexpressedindifferentpartsofspeech.”(P23);“Theconversionofpartofspeechistomakethetranslationmoreinlinewiththelanguagehabitsofthetargettext”(P23);“Chineseusesmoreverbs,whilemorenounsusedinEnglish.”(P23)等多处都存在类似的问题,建议认真修改。(2)标点符号不规范:多处出现类似的问题,如“into“roadwaydeviationsystem”,”(P21);“itstranslationis“waterthermometer”.”(P21);““nonavigationormultimediasignalinput”.”(P28)等多处存在类似的问题。(3)大小写错误:如“Inexample17,”(P30);“example16,”(P30)等多处存在类似的问题,请认真修改。二、论文过多地使用了“theauthor”,“thetranslator”,“theauthor”等指代自己,打破了句子的衔接。建议重新调整。三、论文中使用“firstly,secondly”,或者是“First,”等序数词过多,降低了学术性。四、缺少过渡段,如“AReportonC-ETranslationofXBrandPassengerVehicleMaintenanceManual(Excerpts)1.TaskDescription1.1ProjectBackground”(P5);“2.2WhileTranslation2.2.1UnderstandingandAnalysisofSourceText”(P11);“2.3AfterTranslation2.3.1Proofreading”(P14)等多处都存在类似的问题,请认真修改。总之,该论文达到翻译硕士学位论文的要求,同意组织论文答辩。",0,1,0,0,1,1,-1,-1,1,1,0,1,0,0 +2996,研究水泥基材料的耐久性,对于降低工程结构维护成本,提高工程结构使用寿命具有重要意义。该论文从尺寸角度来研究石墨烯对水泥基材料耐久性的影响,首先通过Raman、激光粒度分析、XRD、FTIR、SEM等微观测试手段分析了两种石墨烯的尺寸、结晶度、官能团含量以及微观形貌,并制备了两种PG分散液掺入到水泥基材料中,研究了不同尺寸石墨烯对水泥基材料抗渗性、抗氯离子渗透性以及抗碳化性的影响,最后采用SEM、XRD、EDS等表征手段并结合分子动力学模拟技术研究石墨烯提高水泥基材料耐久性的微观结构作用机理。该论文有一定创新性,层次分明、文笔比较流畅,反映出作者具有比较扎实的基础理论知识和比较系统的专业知识,该论文达到硕士学位论文水平,同意其参加论文答辩。该论文存在的问题和不足之处如下:1、25页表3-1中产品种类为P.O42.5,为普通硅酸盐水泥,与24页材料介绍中的P.Ⅱ42.5硅酸盐水泥不一致,另外表中术语请核对准确。2、论文格式的规范性还需加强。论文格式问题主要有:1)摘要中字体大小未统一;2)正文起始页应为1,该论文正文从第7页开始;3)注意单位书写的规范性,比如上下标、大小写;4)有多个表的格式不规范,比如表3-7、表3-9、表5-1;5)31页首行未缩进;6)文中有多处写“由图可知”,未写图序号;7)37页结论第(1)条中,“*”书写不规范。以上问题请作者认真修改。,0,0,0,0,1,0,-1,1,0,0,0,1,0,0 +2134,在信息化时代,软件行业的竞争越来越激烈,有效的成本管理对提高公司的核心竞争力显得尤其重要。论文通过分析HZ公司项目成本管理的现状,发现其存在的问题,并以A局测政管理软件升级项目为例,运用工作结构分解法和挣值分析法,优化了项目成本管理流程,有效控制了公司的项目成本。 论文选题具有一定的理论意义和实用价值,课题对项目成本管理、项目成本估算、项目成本预算、项目成本控制四方面的国内外研究动态进行了一定的述评,作者具有整理资料的能力和独立从事科学研究的工作能力。论文结构合理、详略得当,文中概念界定清晰,写作规范、达到了学术论文的写作要求。研究成果有一定的实用价值。,0,1,1,0,0,1,1,1,1,0,0,1,0,0 +1797,论文以纯电动车两档变速器为研究对象,以参数匹配与性能研究为主要内容,对新能源汽车产业发展有现实指导意义。选定小鹏P7作为对标车型,进行了动力系统参数的匹配设计,最后建立了变速器模型及与之匹配的纯电动车整车模型,并进行了换挡品质、整车动力性与经济性方面的仿真研究,对改善换挡品质、提升纯电动车整车动力性与经济性有一定的理论指导意义。论文撰写规范,概念清晰,文字表达能力强。同意参加答辩。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +9,“一带一路”倡议提出以来,中国不断加大对沿线国家直接投资,贸易关系也更加紧密,而出口技术复杂度反应的是一国出口产品的技术水平和结构,反应的是一国出口产品的国际竞争力,“一带一路”倡议会为中国对外直接投资的扩张以及出口技术复杂度的提升带来的机遇。因此,研究“一带一路”背景下研究中国对沿线国家直接投资对出口技术复杂度的影响,选题有意义。论文分析了对外直接投资对出口技术复杂度的影响机理,中国对“一带一路”沿线16个国家直接投资和货物出口贸易现状,在此基础上进行了实证分析,结构比较合理,逻辑比较严谨,写作基本规范,学科知识掌握比较扎实。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +396,论文从供应链的视角,能够结合实际以H新能源材料有限公司为研究对象,采用案例研究法探讨公司供应链上下游的成本控制问题,选题符合专业方向,为较为常见的研究题目。文献阅评对现有相关研究领域进行了一定的总结。论文整体结构合理,层次清楚,体现了对所学知识的较好的把握,有一定的工作量,论文撰写规范性较好,文字通顺。,0,0,1,1,1,0,1,1,1,0,0,0,0,0 +2279,本论文以静电纺丝制备的碳纳米纤维为基底,结合多种改性方法对碳纳米纤维进行功能性修饰,从而得到具有不同性能的复合碳纳米纤维,并系统开展了其作为修饰电极材料在电化学发光检测盐酸地芬尼多的应用研究。论文框架结构紧凑完整,工作量饱满,数据表征相对详实,数据分析合理。不足之处在于主要有以下几点:1、论文对于每种材料的深入研究仍稍显不足,针对4种功能性碳纳米纤维材料在修饰电极应用中的性能差异及其机理分析稍显欠缺;2、缺少电化学发光传感器的选择性和特异性评价。整体来讲,本论文已达到了硕士论文水平,同意进行硕士学位论文答辩。,0,0,0,1,0,0,0,0,1,-1,0,0,0,0 +1881,"论文针对大豆“保险+期货”场外期权试点品种的定价方法、运行效果等进行了调研分析,在此基础上提出了引入半亚式障碍期权,设置触碰式理赔条款等优化大豆“保险+期货”场外期权设计,降低保险成本等建议。论文选题对推动“保险+期货”农业保险产品开发具有较强的现实意义。 总体看,论文研究的问题较明确,作者掌握了必要的文献资料,具备研究这一问题必备的专业理论知识,论文结构较规范,文字表达较清晰。受制于""保险+期货”农业保险产品还处于试点初期,实践中还处于摸索阶段,研究难度较大,本论文对大豆“保险+期货”产品运行情况的介绍、场外期权定价方法的选择、产品优化利弊权衡等方面还有待完善。",0,1,1,0,1,0,0,1,1,0,0,0,0,0 +227,该论文的选题具有重要的理论研究意义和实践应用参考价值。 该论文在对国内外相关文献进行综述的基础上,采用文献研究法、调查研究法、案例研究法等研究方法,以案例企业橡塑制品行业XT橡塑制品有限公司作为研究对象,通过对XT橡塑公司成本控制现状的分析,从公司内部价值链、纵向价值链以及横向价值链三方面展开分析,提出在仓储、生产、物资采购等环节加强内部价值链成本控制以及合理选择供应商、控制运输成本、与相同战略目标的竞争者联盟等外部价值链措施,最终达到提高公司成本竞争优势的目的。 该论文通过对案例企业XT橡塑公司内部价值链与外部价值链进行全面的成本控制分析,提出的成本控制改进措施与对策性建议具有一定新意。 该论文作者较好的掌握了会计学科知识,论文结构合理,层次清晰,资料详实,写作规范,论述具有条理性,观点明确,论据充分。,0,1,0,0,1,0,1,0,1,0,0,1,0,0 +915,该论文研究选题贴近我国基础教育发展实际,具有一定实践意义,对解决基础教育中的实际问题有一定的参考价值。作者查阅了一定数量的参考文献,调研了解国内外大概念和单元设计的发展现状和最新进展,综述能够概括基本问题。作者采用用文献分析法、比较研究法、专家咨询法、问卷调查法,对大概念视域下高中物理单元设计进行了研究,并取得了一定的研究成果。但该学生问卷编制存在问题,缺乏深入的分析论证,缺乏针对性和说服力,且没有深入到实践中去,考虑到疫情影响,可以今后继续研究。总之,作者还是需要加强科学研究的能力和科研写作能力。,0,1,1,0,0,-1,0,-1,0,0,1,0,0,0 +675,配电网随着负荷的不断增大,10kV 配电开关柜设备事故数量逐年增加,增加了配网系统的不稳定性,不稳定性主要是绝缘的劣化问题造成的。因此,论文选题具有实际价值。主要工作如下: 1)分析了超声波及暂态地电压检测局部放电的原理及其实现,介绍了如何利用超声波实现的局部放电检测; 2)针对某配电开关柜进行内部结构分析,建立二维有限元电场结构模型;对内部电场进行分析,找出绝缘薄弱点以及容易进行观测的部位。 3)介绍了超声波及暂态地电波开关柜局部放电检测的实际操作过程。针对供电局出现过的相关案例进行分析,对判断故障类型起到了指导性意义。 论文工作具体、反映了研究生较扎实的专业基础知识,以及实践能力。,0,1,0,0,1,0,0,0,0,0,0,0,0,0 +1349,该论文以《某汽车座椅发泡修整区作业调度优化与仿真研究》为选题,立题依据充分,符合工业工程与管理专业领域硕士方向,论文选题具有一定的理论及实际意义。 作者阅读了大量的国内外相关文献资料,对国内外车间作业调度的研究现状进行了综述,在论述车间作业调度理论及方法的基础上,通过对某汽车座椅发泡修整作业调度案例的研究,给出了此类型生产作业调度的解决方案,应用改进的NSGA-II对调度模型进行求解,并应用层次分析对多目标方案进行优选,最后对优化方案进行仿真实验,验证其合理性及可行性。 论文结构合理、层次清楚、数据翔实、论点明确、论述充分、结论正确。从论文的撰写中可知作者掌握了工业工程的基本方法,专业知识较扎实,说明作者具有了较好的理论基础和系统的专门知识,具备了一定的从事科学研究工作的能力,论文达到了国家学位条例对硕士学位论文的要求。建议参加毕业论文答辩。,0,1,1,0,1,0,0,0,1,0,1,0,0,0 +2611,论文采用试验研究、理论分析和数值模拟相结合的方法对静力作用下CFRP-PCPs复合筋钢-混凝土组合梁负弯矩区的受力性能进行研究与分析,可为该类组合结构的理论研究以及实际工程应用提供参考。作者理论基础的扎实程度,论文规范性良好,达到硕士学位论文水平。建议及意见:(1)题目“CFRP-PCPs复合筋钢-混凝土组合梁”,建议描述清楚CFRP-PCPs复合筋与钢-混凝土组合梁之间逻辑关系,因为文字中并非用复合筋完全替代普通钢筋,更多的是进行加固。(2)34页,“由图3-5可知,在加载初期各试件混凝土应变均缓慢增长,但CFRP-PCPs复合筋钢-混组合梁的混凝土应变增长速率低于普通钢-混组合梁的混凝土应变。相同荷载下,CFRP-PCPs复合筋钢-混组合梁混凝土板侧应变低于普通钢-混组合梁的混凝土应变。”对于SCC和PSCC2来说符合这样的规律描述,但是SCC和PSCC1进行对比分析时,似乎得不到这样的规律。(3)图3-6中各应变片编号所对应的位置,在文中未作介绍。(4)实验数据处理分析时,多次提到混凝土板开裂前、混凝土板开裂后、钢筋屈服后等阶段,建议在图中将不同阶段对应的荷载标注在图中,使读者可以更直观获取作者要表达的信息。(5)本文模拟中并未考虑型钢与混凝土之间的滑移特性,但是实验结果表明,二者之间存在明显滑移现象。,0,0,0,0,1,0,1,0,0,0,0,1,0,0 +180,齿轮作为传动系统中常用部件,在各种复杂工况下运行时极易产生故障,从而导致传动系统出现问题,齿轮故障检测及识别是人们十分关心的问题,也是一直以来备受关注的研究课题,论文采用声发射技术对齿轮故障的识别方法开展研究,具有一定的工程及理论运用意义。论文工作主要体现在:在前人工作的基础上,搭建了齿轮声发射检测系统,并用该系统进行了相关试验;利用相关数据,探讨了基于门控循环单元,深度信念网络的齿轮故障诊断方法。论文工作对提升齿轮故障诊断准确率具有一定的指导作用。论文工作反映了作者已基本掌握了本研究方向相关的基础理论及专业知识,具有一定工作能力及解决实际工程问题的能力。论文结构基本合理,层次简清,语言规范,总体水平已达到了专业硕士论文要求,但作者需对论文作修改后提交论文答辩。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +858, 本论文较上次送审有了明显的改观,其中对论文的章节、内容和格式都做了适当的调整和补充,使得论文质量有明显提升,建议绪论部分的国内外研究现状,要对例举的论文归类概述之。其次,通过对《杨柳之歌》的音乐分析,准确阐释黛丝特蒙娜这一角色,对她的形象塑造有更清晰、合理的论证,符合学位论文“小题大做”写作原则。纵观全文逻辑性更强,论点明确,论据较为充分,文章布局较为合理,行文流畅。基本符合专业学位硕士论文要求。,0,0,-1,0,0,0,1,1,1,0,0,0,0,0 +2005,神经系统疾病给患者带来了极大的痛苦,经颅磁刺激和经颅电刺激为治疗神经系统疾病提供了无损治疗方案。低强度经颅聚焦超声波刺激是一种新近发展起来的无创性神经调控治疗手段。低强度经颅聚焦超声刺激通过将超声能聚焦到颅内,可实现对神经组织调控,具有较好的聚焦性和刺激深度的优点。但超声的频率、强度、脉冲重复时间等因数直接影响调控效果,为了满足低强度聚焦超声对神经系统调控的需要,论文作者设计了一款经颅超声刺激装置,该装置具有频率、电压、脉冲重复时间可调,并具有连续或脉冲方式输出超声波方式,该装置可对神经调控研究提供基础支持。 论文的主要工作和成果如下。 1. 进行了超声信号产生与控制装置的系统硬件设计。包括系统整体框图、信号发生器模块框图、超声发射模块框图等。具体实现了开关电源的设计,主回路设计与控制回路设计,信号发生器电路设计以及超声发射电路设计等。 2. 完成了超声控制装置的软件系统的设计。以小型计算机树莓派作为主控制板,采用Python编程语言向AD9106芯片写入驱动程序及AD9106驱动代码的具体实现。 3. 对低强度聚焦超声产生与控制系统进行了研制及测试。测试包括输出模式、输出功能以及对系统的回波检测等。另外还对系统输出的误差进行了分析。 论文写作认真,具有较好的系统性和逻辑性。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +631,论文针对具有低输出谐波的高速永磁同步电机驱动系统进行研究,首先介绍了高速电机驱动变频器的国内外发展现状,给出了永磁同步电机DQ坐标系下的数学模型,并介绍了有源钳位五电平逆变器的拓扑结构及工作状态,设计了逆变器输出的LC滤波器,并给出了系统拓扑结构及主要电气参数选取;论文进一步介绍了适用于有源钳位五电平逆变器的SVPWM调试实现过程,包括基本矢量选取、基本矢量作用时间、开关状态计算等,并分析了不用矢量作用的直流侧电容中点电位控制方法;最后,搭建了系统仿真波形,进行了相关仿真波形分析和验证。 论文选题基本合理,内容结构完整、分析介绍正确,基本达到硕士论文要求,但是论文研究内容未体现“高速电机驱动”需求的适应性,同意论文修改后、经导师把关后答辩。,0,1,0,0,0,0,1,0,0,-1,0,0,0,0 +2522,该生论文研究主要通过对电极材料的体相离子掺杂和表面复相构筑进行结构改性,以ZnMn2O4电化学性能。选题具有一定的意义,创新性尚可但数据普遍不是很理想。总之,本论文涉及工作量大,撰写基本规范,排版合理,达到硕士毕业要求,同意答辩。存在问题如下:1.Abstract存在语法错误,且中式英语明显,请予以修改;2.“锂离子电池中,使用了对环境不友好的剧毒和易燃有机电解质”,何种电解质剧毒?各种电池体系的总结较主观,没有找出实际和真正存在的问题来突出水系锌离子电池的优势;3.最近一两年的参考文献较少,请酌情添加和综述,以反映当前和本研究类似方向的研究进展;另外参考文献格式需要统一,当前格式比较凌乱。4.第20页中“电化学阻抗测试是一般通过跟踪电池对频率范围内的电偏压的响应来测量系统的阻抗”,不知什么意思?5.口语化的词汇请予以改正,如“XPS扫描光谱”,XPS是光电子能谱。还有其他很多地方将学术论文的撰写口语化的现象;6.23页中(2)不同离子掺杂样品充放电循环性能分析过于简单,缺乏深入探讨。,0,1,-1,1,0,0,1,-1,-1,0,0,1,0,0 +172,采购活动是企业生产运作的起点,是企业降低成本、增加利润的重要环节。受到内外部环境不可控因素的影响,采购活动各个环节中都存在不同程度的风险。论文《S公司通信类项目物料采购风险控制研究》以 某公司项目物料采购得风险控制为题,选题具有现实意义,符合专业培养要求。 论文总简述项目管理、风险管理相关概念得基础上,针对某公司项目得实际特点,采用专家调研等方法确定该公司项目物料采购风险评估得定量方法,其结果具有较强得 可操作性,对该公司得风险管控有一定借鉴价值。 论文结构基本合理,论述较充分,引用较规范,基本达到相关专业硕士论文水平,同意经过修改后提交论文答辩并申请相关学位。,0,1,0,0,0,0,0,1,1,0,0,1,0,0 +1163,本文选取2020年初美国击杀伊朗军事领导人背景对国际公法下预防性自卫法律问题进行研究具有一定的理论价值和很大的实践指导意义。在研究准备中,作者涉猎了一定预防性自卫法律问题的中英文法学研究文献,并采用了相应的研究方法。在研究论证中,本论文从预防性自卫法律问题的概念与发展历史、国际立法审视与可行性分析、学说观点的对比与现行法律存在问题,再到最后的完善应对之策,论文作者能够进行一定程度的研究,问题导向性较强,逻辑结构较为合理,学术论文的规范性仍然有提升空间。整体来看,作者具有了一定的运用有关法学理论研究分析实际问题的能力,但仍然需要对论文进行一定程度的提升。,0,1,0,0,0,1,-1,0,1,0,0,0,0,0 +1244,超声波具有速度快、穿透力强和灵敏度高等优点,基于超声导波的板状结构脱粘缺陷检测已成为无损检测领域的重要研究方向,本文对基于超声导波的板状结构防腐层粘接状态识别算法进行研究,主要内容如下: 1、对板状结构的材料参数与超声回波信号之间的关系进行实验分析,采用基于软阈值的小波提升去噪技术对回波信号进行预处理。采集板状结构粘接完好状态、基于密度变化的弱粘接状态和基于厚度变化的部分脱粘状态下的回波信号,分别研究其材料参数变化对粘接状态的影响,建立材料参数与回波信号之间的关系; 2、对获取的超声回波信号进行特征提取,分别提取了时域上的信号最大幅值、波形系数、峭度系数和偏态系数特征量,频域上的重心频率和频率标准差特征量,时频域上的信号能量、小波能谱熵和小波奇异谱熵特征量,基于提取的9维特征量对板状结构的粘接状态进行识别分类。分别采用朴素贝叶斯分类器和随机森林分类算法对获取到的信号数据进行识别分类,两种算法都得到了较好的识别率。 由论文反映出论文作者在本门学科上掌握了坚实的基础理论和系统的专门知识,具备独立从事科学研究工作的能力。研究结果具有实际应用价值。论文层次分明,推理较严密,逻辑性强。搜集材料齐全,文字表达准确。行文流畅,引文规范。论文结构、书写与排版规范。同意该论文作为硕士学位论文进行答辩。,0,0,0,0,1,1,1,0,1,0,0,0,0,0 +1304,该论文结构严谨,语句通顺,内容丰富,工作量充足。文章研究的盆式绝缘子表面电荷集聚特性,课题紧跟现阶段盆式绝缘子应用于气体绝缘管道中所面临的实际问题,研究具有一定的经济现实意义。 文章对课题的近期的国内外动态理解全面,课题意义及目的明确。其设计制造的盆式绝缘子缩比模型可实现模拟气体绝缘输电管道实际工作情况,对今后的盆式绝缘子发展具有促进意义。课题使用价值明确,工作量充足,文章格式规范,内容合理,逻辑清晰。作者在这一领域具有一定的科研能力与创新能力,且对此领域基础知识扎实。 综上,同意其直接答辩。,0,1,1,1,1,1,1,1,1,0,0,1,0,0 +721,"陶瓷型芯是复杂气冷内腔结构涡轮叶片的核心部件,但通过凝胶注模成型工艺制备时,在保证其高强度的同时,气孔率对注模脱除效率有重要的影响。该论文以电熔刚玉为基体材料制备了氧化铝基陶瓷型芯,分别研究pH值、分散剂、球磨工艺、纤维和固相含量对浆料粘度的影响。研究结果具有实际应用价值。该论文查阅了国内外文献,并进行了文献综述。论文取得以下结果: 1. 固相含量为45wt.%, pH为9, 球磨24小时,分散剂含量为0.7wt.%,纤维添加量为4wt.%时制备的浆料粘度为144mPa?s。 2. 相比加热干燥,真空冷冻干燥获得坯体变形小,加入1wt.%的聚丙烯酰胺可抑制坯体起皮。 3. 固相含量55wt.%, 纤维添加量为4wt.%,烧结温度为1600oC,保温8小时,陶瓷抗弯强度可达80.25MPa,气孔率为51.26%。 论文撰写比较规范,数据可信,分析推理有据,结论基本正确。反映作者基本具备了独立从事科研工作的初步能力。但论文存在不少错误,建议修改论文和补充数据。",0,0,0,0,0,1,1,1,0,0,1,0,0,1 +2397,本文作者收集了广西某市妇幼保健院新生儿科接受治疗早产儿临床记录中的相关数据,主要研究了早产儿支气管肺发育不良的预测问题,作者主要考虑了Logistic回归、XGBoost、LightGBM三种模型进行建模和预测,最终得出LightGBM预测模型整体综合评价指标比较好。该论文选题新颖、具有实际意义,作者参考了大量的文献资料,写作思路明确,工作量饱满,结合具体实验结果论证准确。该论文达到了毕业论文的基本要求,同意其参加毕业论文答辩。不足之处:1.有些标点符号的格式使用不准确,如标点符号后面缺少空格(如英文关键词),或标点符号前面多空格;2.公式2-16不准确;3.参考文献引用的格式使用年份+标号的形式显得多余。,0,1,1,1,0,0,-1,0,0,0,1,0,0,0 +2571,很多学者主要是从宏观和中观的角度分析问题及其成因,对于乡村传统文化的运作逻辑以及现存问题的具体分析较少。对于乡村文化的路径分析,很多学者都停留在一个较为理想的层面,认为乡村文化的发展是一个顺其自然的过程,缺少对于乡村自然和人文环境等微观层面的具体调研和分析。本论文从微观层面阐述乡村文化振兴路径,因此,选题意义大。综观全文脉络分明,层次清楚。已达到硕士学位论文水平。存在的问题:题目应加入一个副标题以重庆市酉阳县为例;第二章乡村文化振兴的思想理论基础应为:一、马克思主义经典作家的文化理论1、马克思恩格斯的文化理论,2、列宁的文化建设理论,3、斯大林的文化理论;二、中国共产党人的农村文化建设思想1、毛泽东的农村文化建设思想,2、邓小平的农村文化建设思想,3、江泽民的农村文化建设思想,4、胡锦涛的农村文化建设思想。,0,1,0,0,0,0,0,-1,1,0,0,0,0,0 +499,论文选题有理论意义或实用价值,对科学发展、经济建设、科技进步或社会文化发展起作用。 阅读资料比较广泛,能够掌握课题的国内外研究动态,对本论文所要解决问题的目的及意义论述清晰,研究方向明确。 研究成果有实用价值,研究成果创新不够,论文难易适当,做了大量工作。 有较强的独立从事科学研究的能力,较好的掌握了课题相关的专业理论知识。 条理清楚,分析比较严谨,逻辑性比较好;得出的结论合理;论文撰写规范,有较强的文字表达能力。,0,1,1,1,1,1,1,0,1,0,1,-1,0,0 +619,论文针对轨道交通用断路器的同步控制时间补偿方法开展研究,选题具有重要实用价值。论文利用递推最小二乘辨识算法对影响电磁操动机构分合闸时间的电路参数进行辨识,利用贝叶斯网络对断路器电磁操动机构分合闸时间进行了预测研究,基于仿真结果对参数辨识的辨识精度和收敛速度进行了分析,对在线参数辨识算法的可靠性、时间预测模型等进行了验证。论文有一定的创新,表明作者较好的掌握了课题相关的专业理论知识,有一定的科研能力。论文写作较规范。,0,0,0,0,1,1,1,0,0,0,0,1,0,0 +3016,这是一篇中规中矩的社会工作实务论文,本选题反映出作者求稳的学习态度。本文结构清晰,符合社会工作实务报告的一般流程。逻辑合理,表述清晰。本文在结论方面,未能形成适合名之为结论的文字,与实务报告相仿。一些可能的改进措施。实务论文,也需要形成基于经验材料的概括或提升性质的具有抽象性特征的结论,以达致具有知识增量的学术价值。本文选题,与社会工作起步阶段时讨论的议题较为相近。相似水准上的重复,难以形成创新。希望作者能对小组开展的可能性、成员参与的时空现实性予以更清晰的说明,满足读者及学界对实证的期许。,0,0,0,0,0,0,0,0,1,0,-1,-1,0,0 +2391,本文旨在对MOFs进行合适的功能化修饰以制备具有不同特性的MOFs衍生材料,采用适当的固化技术制备高性能的功能化MOF基材料固载传感器,结合电化学分析技术,实现木犀草素、芦丁和多菌灵的选择性分析,并通过扫描电镜、X射线衍射、Mapping等技术对纳米材料的形貌、结构和元素分布进行分析,有一定科学依据。1.电极名称需统一命名,如玻碳电极而非玻璃碳电极2.SEM建议按比例增加标尺以增加准确度,图的大小建议统一,图谱中单位的表达方式建议统一3.个别单位和数字之间格式表达错误。4.MOF-5与TAA结合的方式是什么?对木犀草素的特异性电化学行为是基于什么?5.4.3.7没有误差棒吗?,0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +1916,论文针对机床主轴回转误差难以实现在线测量的问题,研究了主轴径向误差分离技术,并基于误差溯源分析,探索了径向误差补偿方法,对有效减小机床主轴径向回转误差、提高机床加工精度具有一定的理论意义和工程实际应用价值。 论文在分析主轴回转误差产生原因及测量方法的基础上,提出了多圈重合式矩阵四点法主轴回转误差分离方法,并基于遗传算法对四传感器安装角度和权值系数进行优化,通过实验验证了该方法对分离主轴径向回转误差和形状误差的有效性,进而对主轴前端面径向误差进行了溯源分析,设计了主轴回转误差互补偿仿真系统。 论文内容安排较合理,主题明确,文笔较流畅,格式基本规范,论文表明该生已在本学科领域掌握了较坚实的基础理论和专业知识,能够运用专业知识分析和解决实际问题,具有独立从事科学研究工作的能力,达到了工学硕士学位论文要求。 同意该生进行硕士学位论文答辩。,0,0,0,0,1,1,1,1,0,0,0,0,0,0 +1306,该论文利用T型试棒和传统的CSC判据研究了多个系列的镁合金热裂行为,综合利用了热力分析、体积填充法、金相、扫描、透射及EBSD等手段表征了测试试棒凝固过程的温度及应力变化规律、裂纹体积、凝固组织、微观组织及织构等。研究结果较为丰富,比较系统地研究了 Mg-Zn-RE(Y,Gd)系合金的热裂敏感性,对这些合金的成分优化及工艺设计提供了参考数据。 论文选题具有较强的应用背景,研究内容丰富,测试结果比较可靠,数据及结论具有应用参考价值。论文写作比较流畅,逻辑清晰,说明作者较好掌握了本学科基本理论及本领域的前沿知识。,0,1,0,1,1,0,0,1,1,0,1,0,0,0 +2067,文章针对固体电蓄热装置的运行特点进行了详尽的分析,并且进行了基于运行数据的模型辨识工作,针对其控制中的时滞性、稳定等问题研究了PID参数优化控制方法。从仿真的结果看,确实能够有效提高控制性能。文章的特别贡献在于:针对北方的弃风问题 ,结合北方供热实际需求,通过电蓄热装置给出了能源有效利用及协同利用的合理化方案,同时其控制方法能够有效提升整体系统的稳定性和能源利用效率。文章结构合理,格式规范,参考文献引述较好。,0,0,1,0,0,0,1,0,1,0,0,0,0,0 +1864,论文针对9.5kW永磁同步电机,利用集总参数法和有限元法对转子系统进行了相应的动力学分析。 将电磁场与机械应力场耦合后进行了转子分布应力计算,对不平衡磁拉力对转子系统动力学特性影响进行了计算分析,该研究对高速永磁同步电机的设计有一定的参考意义。 论文作者掌握了本学科的基础理论及相关知识,论文写作条理清楚,达到硕士的论文要求。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +2028,随着互联网电子零售业的迅速发展,新零售下的生鲜农产品领域成为重要的新兴市场。论文研究生鲜农产品线上线下双渠道供应链的收益分配问题,具有较强的理论和现实意义。论文结构合理、条理清晰、方法得当、论证充分,结果可靠,说明作者已较好掌握了领域知识,基本具备了独立从事本领域科研的工作能力。 论文工作量达到要求,质量上稍有欠缺,同意修改后直接答辩。,0,1,0,1,1,1,0,0,1,1,1,-1,0,0 +2631,论文对混联式HEV进行能量管理策略进行了较系统的研究,论文选题符合目前新技术发展的趋势,选题有意义。文中作者首先对构型和动力总成特性进行分析,在此基础上建立了基于组合算法的规则型能量管理策略。其次,为了解决基于组合算法的规则型能量管理策略中并联工作模式能量分配策略的局限性,基于模糊控制改进了并联工作模式的能量分配策略。之后,为了进一步提升经济性,采用PSO算法优化控制策略的阈值。最后,通过Cruise和Simulink联合仿真验证了本文设计的能量管理策略的有效性和合理性。论文整体思路较清晰,整体工作量较饱满,反映出作者已掌握了比较扎实的本学科基础理论知识并具备一定的科研能力;论文写作方面,语句基本通顺,格式基本规范,图表尚可,同意该论文修改后参加答辩。论文的不足之处:1.论文中首次出现的英文缩写,应写全称,如摘要中的HEV、WLTC等。2.摘要部分,语句和结构不通顺,需要进行规范修改。3.式(2-3)、式(2-4)、式(2-5)的Pe、Qfuel、PM的含义建议介绍,后续的公式皆存在类似问题。4.第三章进行模糊控制器设计时,设计过于简单,基本是一个流程的介绍,且没有量化因子与比例因子的计算方法。建议增加模糊控制改进的组合算法规则型能量管理策略的仿真数学模型。5.文中3.2节“发动机转速与车速解耦”,在文中并未提及两者之间如何实现解耦,建议补充说明。6.参考文献中,个别文献较早,是否具有代表性?建议引用近几年的参考文献。,0,1,-1,1,0,0,1,1,1,0,0,0,0,0 +2400,本文作者以医学影像分类问题为背景,同时考虑了类别不平衡和小样本的情况,较为贴近实际情况。作者在特征层面上利用大型迁移学习模型对图像特征的自动高效提取能力,减少了人工提取特征的工作量;利用了多层感知机处理高维数据的优势,强化模型对高维信息的表征能力;采取多种图像增强方法,并利用自适应优化器调整超参数以提升模型的泛化能力等。作者也验证本文算法的可行性和有效性。该论文选题新颖、具有一定的创新性,并具有实际意义,作者写作思路明确,工作量饱满,结果论证充分。该论文达到了毕业论文的基本要求,同意其参加毕业论文答辩。不足:1.英文摘要中某些语法不准确,需修改;2.第三个英文关键词开头字母要大写;3.图3.3不像直方图,似乎是拟合的密度图像;4.图4-27至图4-32需解释详细一些。,0,1,0,1,0,0,-1,0,0,0,0,0,0,0 +975,文章基于高效能积极人格理论,利用问卷法、文献法和访谈法对大学生领导力现状进行了实证研究,剖析了大学生领导力存在的问题,并给出了培养策略,总的来说问题意识明确,研究思路清晰,论文结构完整,表达较为流畅。但论文在“原理”意识上仍需要进一步加强。原理研究并非不需要实证,但实证是服务于理论分析的,范畴、概念分析才是原理最为重要的部分。论文在思路上,仍需要进一步聚焦高效能积极人格教育对于大学生领导力培养何以必要,何以可能上。文章最后一部分提出的培养策略,缺失辩护,即为什么要如此培养,这些策略之间的逻辑关系是什么,否则将陷于穷举。,0,0,0,0,0,0,0,1,1,0,0,0,0,0 +1449,该文以40000kVA箱式电力变压器为研究对象,考虑到短路电流对绕组稳定性的影响,利用仿真平台搭建了以箱式电力变压器模型为核心的短路冲击故障仿真模型。对比验证了几种短路故障下电流的变化倍数,确定了三相短路为本文所研究电力变压器的最恶劣短路情况。 考虑绕组主空道中的漏磁密度并非相同,首先对比分析了额定绕组下不同相过零时漏磁场的变化规律,不同位置的轴向漏磁密和径向漏磁密是不一样的,因此绕组在圆周方向的受力也不同,并且B相绕组过零时绕组所处漏磁整体大于A相绕组过零。对于B相绕组空间轴向漏磁最大值出现在铁心轭下的绕组中部,径向漏磁最大值出现在铁心外部90°处的绕组端部。其次对B相绕组建立了适用于“电磁场-结构场”直接耦合计算的径向变形模型,从漏磁场的分析结果来看,若变形绕组再次受到短路电流的冲击,轴向漏磁密和径向漏磁密都将在绕组的最大径向变形处出现峰值。沿绕组最大变形处周向空间路径,漏磁场波动较大且在最大变形处出现波段峰值。 分析了变压器短路阻抗的计算方法,根据磁路基本定律,推导出了一个简便计算的短路阻抗计算公式,对于工程计算此方法可以在不借助于磁场分析软件的情况下求出短路阻抗。对绕组变形时短路阻抗的变化规律进行计算分析,以绕组2%径向变形逐次增加变形量,当径向变形发生在铁心轭下绕组部分时,短路阻抗变化量要比铁心外部绕组变形时增加20%。对内绕组进行等效缩减,短路阻抗呈逐次递增趋势,验证了短路阻抗的变化与漏磁主空道宽度呈正相关。对变形绕组的电磁载荷进行分析,当径向变形绕组再次发生短路故障,应对铁心轭下绕组中部以及铁心外部绕组端部的抗短路能力重点关注,以防变形程度增大损害电力变压器,造成短路事故。 论文的学术水平已达到硕士学位要求,同意答辩。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +2037,随着永磁同步电机驱动和应用技术的发展,谐波和转矩脉动问题受到关注,论文以此为题,具有较好的研究意义。关于转矩脉动抑制方面的研究主要由优化电机设计和优化控制策略两种方式。就控制策略优化展开研究,具有一定的工程价值。论文建立了谐波模型,分析了谐波的产生,以及谐波的影响。但仅就电流谐波抑制的角度展开研究对提升转矩控制性能的意义有待进一步讨论。如果磁链还有谐波,即便电流不含任何谐波,同样会产生转矩脉动。,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +783,营商环境国际化法治化如火如荼,商事制度改革日益深入,在民法典编篡背景下如何完善商事立法早已提上议事日程,而改革和商事登记制度乃是重要的环节。近年来,商事制度改革顺应了经济体制改革和放管服的需要,而分散立法模式仍处于主导地位,仍有较大完善的空间。论文以功能回归为主线索进行探索,厘清商事登记与其他市场监管的功能区分,进而完善相关法治,是有很重要价值的。论文架构完整,有议有论。资料较为详实,行为较为规范,符合硕士论文要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2202,“《电动汽车结构·原理·检测·维修》(节选)翻译实践报告”,以作者翻译的《电动汽车结构·原理·检测·维修》部分章节为基础,以莱斯的文本类型理论为指导,总结反思自己的翻译实践,以实例说明了作者在实践过程中运用理论知识解决翻译问题的过程、方法,证明了文本类型理论对科技类文本翻译的指导作用。选题有意义、有一定价值。论文的工作难易程度和工作量达到MTI硕士论文写作的训练要求。论文存在的不足之处体现在:1.报告标题最好明确是英翻汉,还是汉翻英,建议将“翻译”改为“英译”为好。2.文中存在术语混乱现象,譬如文中一些地方称本文为paper、一些地方为report,别的地方又为thesis,最好统一thesis。3.译前准备的平行文本阅读,最好中英文的相关平行资料都应该阅读并加以分析,这样对中英文平行资料的文本特点及其差异才有深刻的认识。知己知彼,才能保证翻译质量。4.报告的连贯性有待提高,思路不够清晰,文脉不是很畅通,逻辑自洽性不够好。主要表现在以下几个方面:(1)在2.2.1的文本分析中,作者并没有聚焦文本分析,而是用了更多笔墨介绍文本的来源、文本阅读、原文本内容等,使读者读完该部分内容后,对原文本在词汇、句法上的特点以及篇章结构等知之甚少,似有跑题之嫌。(2)在2.2.2翻译策略选用中的第2/3/4段内容,应该放到2.2.1部分去写。(3)在2.3Posttranslationreview中,第一段里有些话,不应该放在该段中来写。(4)过渡段跟文后所举例句分析的相关度不大:如p21.:4.2.1下面的过渡段,应该从汉语的流水句来谈,这样跟后面所举译例结合更紧密。5.个别译文的语言表述还需润色、修改、打磨;全文语言文字的表达需再润色、修改。6.注意一些细节之处:(1)表格与前后正文应有一定的间距,表格里的字号可以用小于正文一个字号;(2)参考文献格式不够规范,有的参考文献从别的杂志直接复制、粘贴过来,格式跟其他不同,如参考文献中的21条。,0,1,0,0,0,0,-1,-1,-1,0,0,0,0,0 +1786,论文以2010年青岛啤酒并购银麦啤酒事项为例进行研究,选题比较陈旧,一是相关研究已经较多,二是十几年前的并购案例所处的经济环境不再出现,论文研究对近期及未来企业管理的参考价值非常有限,且论文研究背景所述与案例发生的时代并不一致,文中对比案例与青啤并购银麦的案例时代差别久远,可比性较低。 论文的整体思路比较清晰,研究方法科学,论证过程比较严密,能够根据所学理论知识分析实际问题,得出的研究结论具有科学性。但文献综述存在罗列文献的现象,部分文献与所研究的主题关系较远。,0,-1,-1,0,0,0,0,0,1,1,1,0,0,0 +1311,该论文首先基于价值链理论及基于价值链的成本管理理论,阐述价值链成本管理的含义、分类及特点,分析了价值链成本管理的优势,论文以DLY公司为研究对象,分析DLY公司公司生产经营现状和成本管理中存在的问题,进行了问卷调查和SWOT分析,最后,提出基于价值链的成本管理优化措施,在生产流程中应用作业成本法优化成本核算方法,使用经济批量订货模型优化采购流程,强化与外部价值链上下游企业的了解与合作,提高公司对外部价值链的重视程度,并提出了实施价值链成本管理的保障措施。 论文选题符合专业培养目标,能够达到综合训练目标,题目有一定难度,工作量一般。写作过程中基本能综合运用考试系统知识,全面分析考试系统问题,综合运用知识能力一般。,0,0,0,-1,0,0,0,0,0,0,0,0,0,0 +3028,众所周知,新冠病毒(Covid19)已经蔓延2年多,波及全世界,对人类社会和全球经济构成了灾难性的威胁。针对传统新冠病毒检测方法具有成本高、耗时长、操作过程较为复杂和繁琐等缺点,论文设计和研究了一种基于Kretschman结构的微分相位SPR探测系统,该探测系统的波长探测范围是640nm-800nm,探测精度为0.0004RIU,可以实现皮摩尔浓度下的新冠病毒检测。从选题上讲,毫无疑问,具有重要的理论研究意义和极高的实用价值。论文对传统新冠病毒的检测方法、基于生物传感器的检测方法、以及SPR生物传感器国内外研究现状及发展趋势进行了综述,对本领域的国内外发展状况和学术动态有了深入了解。论文设计和搭建了一种基于Kretschman结构的微分相位SPR探测系统。该系统的等离子共振吸收范围可以达到640nm-800nm,探测精度可以达到0.0004RIU;制备了基于微分相位的SPR新冠病毒探测系统,可实现皮摩尔浓度下的新冠病毒检测。通过审阅论文设计的基于表面等离子体共振光电生物检测传感器具有潜在的应用价值,可以进一步推动新冠病毒的高效精确检测。作者在生物检测传感器特别是SPR传感器原理以及传感器系统的搭建,病毒的检测原理具有较深的扎实的理论基础,较为系统的掌握了生物传感器领域专门知识,具备了分析问题、解决问题的能力。所提出的研究方法具有一定的科学性,所制备出的设备具有较好的性能。论文的引文较为规范,学风较为严谨性,论文语言表达较为准确、逻辑较为严密、书写格式及图表的较为规范性。综上论文达到了硕士学位论文水平,同意其答辩。请作者参考以下修改意见,对论文进一步完善:(1)论文的章节安排还需要进一步的优化。建议将第四章、第五章合并为一章。(2)论文在综述部分建议按照方法分类进行总结,可以给出树状表,也可以给出表格描述。目前版本中综述部分一段接近一页,很难看出写作的思路。(3)论文对于新冠病毒的检测部分,实验结果和分析部分描述过于简单。此外,所设计的检测系统如何检测病毒样本的浓度?,0,1,-1,0,1,0,1,1,1,0,0,0,0,0 +2958,为提高采桑业机械化水平,该文在参考了前人不同形式采桑机的基础上,首先对桑叶叶柄进行了冲击试验,得到了断裂能与叶柄直径的函数关系;然后对采桑机进行了关键结构设计并进行了样机试制;最后对机架进行了力学模拟分析和轻量化,有效地减少了采桑机重量和成本。作者在对关键结构设计时仅对各装置结构及工作流程进行了概述,缺少详细计算选型设计过程和样机各项额定数据;论文的研究方案基本合理,取得的研究成果实用性不强。论文撰写条理较差,格式存在问题较大;数据和分析的合理性有待商榷。论文工作表明,该生对本研究方向的理论基础和专门知识掌握较差,初步达到硕士学位论文的要求,建议大修后方可进行答辩。论文中存在较多不足之处,表述如下:(1)全文有较多的格式问题:1)封面。封面填空处字体不统一,下划线排版不规范;2)目录。目录不应含有目录,章节题序与标题之间留空未统一,缺少1.4小节,4.4小节重复;3)正文。正文中章节条等层次编排格式存在问题,p1中1.1、1.2、1.3节序号与标题中间空格不统一,p12中3.3.3条序号错误,p28中3.1.3、3.1.4条标题错误,4.3.4条中缺少第4项。文献39、40引用格式错误。正文中出现的所有公式序号位置不统一;4)插图。文中几乎所有图与图题均未居中,图2-5、2-9、4-13、4-14英文图号不匹配,图2-4英文图号与图名之间未留空,图2-10中横坐标轴刻度部分被遮挡,图2-13中分图题不规范,图4-3、4-6、4-9、4-12插图纵坐标轴刻度及单位不规范,图2-14中图注不规范,图3-2表达不清楚,应设分图题或拆分为多图来描述;5)插表。表2-1、4-3中不应留空,表4-5缺失,表4-4和4-6中量名称与单位之间分隔符不一致。(2)参考文献来源过于集中,文献17-25均为同一作者,文献2、3、5-15、17-20、22-24、36-49存在格式错误。(3)第三章3.1.3采桑机基本结构参数的拟定这一节没有内容,其结构参数如何来的?(4)文章主要对机架进行了力学分析和优化,既然是采桑机整体设计,还应对各关键结构设计过程进行详细阐述,以便体现出本文设计采桑机相比前人各种形式采桑机而言的独特之处和创新点。总体而言,格式问题极其有问题,关于结构设计中尺寸的依据极其主观化,没形成科学的表述,望大修。,0,0,0,0,-1,0,-1,0,0,0,-1,0,0,0 +2965,文章选题符合理论与现实意义,内容丰富,达到硕士论文要求。但仍存在以下问题,建议进行修改:1、研究方法部分,建议删除理论分析法,实证分析法修改为具体使用的方法,如“多元回归法”。研究方法不建议写笼统的方法。2、研究文献不够新,建议增加近三年研究文献。3、根据假设3,业绩承诺属于支付方式影响并购商誉的调节变量,而不是本文的解释变量。但是稳重业绩承诺既为解释变量、又是调节变量,作者对变量的理解存在问题。建议文章只提假设1和假设3,解释变量为支付方式,业绩承诺为调节变量,并对文章理论分析进行梳理。,0,1,-1,1,0,0,0,0,-1,-1,0,0,0,0 +1330,该论文选题具备一定的理论意义,同时锌离子电池因安全和廉价具备一定的实际应用价值。论文综述全面透彻,论文研究方案合理。研究内容总体工作量尚可,制备了两种矾酸铜材料,并研究了其作为水系锌离子电池正极材料电化学性能和相关机理,通过XRD SEM TEM和XPS能谱对材料进行了表征;然后将两种矾酸铜材料组装成电池,进行电化学性能测试,并验证了锌离子的嵌入和脱嵌的可逆性。得出了一些有益的结论。发表了学术论文,研究成果具有一定的创新性。 论文撰写规范,结构合理,数据分析和整理处理能力强,论文表述清晰,分析合理,同意答辩。,0,1,1,1,0,0,1,1,1,1,1,1,0,0 +2079,选题来源于生产和工程实践,具有一定的生产和工程应用价值。综述反映与选题相关领域的发展概况,归纳总结较全面。 作业车间调度问题是一个典型的组合优化问题,论文基于智能制造的研究背景,为解决柔性作业车间动态调度问题,通过对车间中的数据进行挖掘,得出新的机器学习规则,以解决柔性车间动态调度问题,优化其性能指标。通过动态作业车间的算例设计和仿真,验证了所提出的调度优化算法运用于柔性作业车间动态调度问题的有效性。 论文结构合理、层次分明、逻辑严谨、格式规范,基本达到工程硕士学位论文要求,论文补充修改后经导师同意可参加硕士论文答辩。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +232,该论文工作旨在设计一款基于脉冲宽度调制的降压型开关电源芯片。芯片电路设计主要包括带隙基准、误差放大器、比较器、振荡器等模块,并采用0.18μmBCD工艺及模型库文件进行各模块电路版图设计与仿真验证。其特点在于内部集成了欠压锁定、软启动、热关断等保护电路,监测芯片的输入电压和温度,可降低浪涌电流特性。所设计电路具有实际应用参考价值。论文结构基本合理,表述清楚,数据可信,符合硕士学位论文要求,同意该生针对以下不足修改后申请答辩。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +1499,换流变压器是当前电力设备研究中的热门问题,而其损耗及温升也是大家极其关注的内容。该论文以换流变压器绕组损耗及温升特性研究为题,具有一定的理论与实践意义。 论文针对ZZDFPZ-406000/500 型换流变压器开展磁场、损耗以及温度场仿真研究。主要研究内容包括: 1)根据换流变压器实际结构参数,应用有限元分析软件对其铁心、铁轭、绕组和油箱等部位进行三维建模,计算其磁场并开展相应分析。 2)研究了换流变压器损耗计算的经验公式,计算出换流变压器油箱、绕组和铁心上的损耗分布情况。计算了绕组中损耗分布。 3)最后利用温度场分析软件对换流变压器进行了多物理场耦合分析的三维建模,得到换流变压器的温度场与变压器油流场。 总体来说,论文具有一定的工作量,但由于研究的内容过多,很多研究并不仔细,结论也有较大的问题。整体论文学术水平不高,创新性不强。整体而言,作者对相关学科知识有一定的掌握、写作比较规范,逻辑性较好。,0,1,0,1,1,0,1,0,1,0,-1,-1,0,0 +72,本论文通过 Mg-2Zn-3Y-xAl 和 Mg-2Zn-(3+0.5x)Y-xAl系合金的热裂敏感性进行了预测;通过双电偶测试法收集了 两种合金凝固过程的重要参数,并且分析了凝固路径、枝晶干涉固相分数、枝晶搭接温度、脆弱区域的温度范围和凝固过程中的特征温度等参数,同时重点研究热裂区域的微观结构和第二相的类型及数量等因素对合金热裂倾向的影响。论文选题具有一定的创新性,对合金凝固过程中的温度和收缩应力等参数进行了分析。论文写作较为规范,有一定的逻辑性,能够反应出作者较好的专业基础及分析解决问题的能力,是一篇优秀的硕士学位论文。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1603,论文对一种无轴承开关磁阻电机的优化设计和特性分析进行研究,选题具有理论意义和实际应用价值。 论文提出一种阶梯转子结构解决起动转矩小和转矩脉动大问题,针对该电机提出一种模拟退火粒子群算法,并结合响应面对该电机进行优化设计。最后,通过有限元分析验证了该电机的电磁特性。 论文写作较为严谨,语言表达流畅,符合规范,已经达到申请工学硕士学位论文的要求。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +819,针对目标跟踪过程中出现各种干扰场景的问题,论文提出一种基于组合卷积结构的目标跟踪网络。此外,基于组合卷积神经网络结构可以有效地学习目标重要特征信息,对输入图像样本进行识别,解决不同类别和不同目标的特征提取问题,降低了算法对重要特征的提取难度,提高算法的识别精度。 论文选题合理可行,有广泛的应用前景,也具有一定的理论意义和实用价值。 从论文撰写方面,可以看出作者掌握了本学科基础理论和系统的专业知识,具有一定的独立从事科研工作的能力。 论文达到硕士学位水平要求,可以提交申请答辩。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +579,论文以无铁心永磁直线同步电机驱动的慢刀伺服系统作为被控对象,针对慢刀伺服系统存在的周期不确定性与参数摄动等而导致的跟踪性能问题设计了相应的控制算法。在保证了慢刀伺服系统跟踪性能的同时兼顾了系统的鲁棒性,实现了慢刀伺服系统的高精密位移跟踪控制。论文采用MATLAB/Simulink 进行了仿真分析,验证了所提控制策略的有效性。论文结构合理,条理清晰,表述规范;论文工作量较大,论文质量优良,达到硕士论文的要求。,0,0,0,1,0,0,1,1,0,0,1,0,0,0 +2425,该课题研究能基于目前能源资源的过度消耗及生态环境被破环等问题,就高效、可持续发展的能源转换及存储问题提出见解,选题有较高的理论意义和实用价值,对本学科及相关学科领域国内外发展状况和学术动态的有一定理解解;课题研究中能提出的新见解、新方法,理论基础扎实,能系统掌握和应用该领域的专门知识,研究方法科学,有较强的分析问题、解决问题的能力,论文成果对该领域的技术进步产生一定的影响和推动作用;论文思路较为清晰,突出了课题的重点,引文规范,论文语言表达准确,逻辑严密,书写格式规范。综合评价良好,达到研究生论文水平,同意答辩。修改建议:可在前言综述部分添加相关“双碳”理论,提出可再生资源不稳定性,提出储能的重要性。,0,1,0,0,1,1,1,1,1,1,0,1,0,0 +1046,2.25Cr1Mo钢被广泛应用于能源和石油化工行业,如果该材料长期在中温服役,其组织演化性能变化等就需要深入研究,论文选题有较好的工程背景。论文采用微量Mg元素和P元素的相互作用来研究二者对2.25Cr1Mo钢的回火脆性的影响,研究路线明确,对长期中温时效对材料冲击性能和硬度进行了研究。采用了SEM+EDS和Auger来检测P等元素在晶界的聚集。结果有一定的工程意义。,0,1,0,0,0,0,0,0,0,0,0,1,0,0 +398,论文从科学技术与社会(STS)的角度,技术维度、伦理维度及社会维度三个维度来探讨3D 打印技术的正面和负面影响。论文选题具有一定的理论价值和现实意义。 论文的主要亮点:针对3D打印技术对传统制造业造成的技术维度、伦理维度及社会维度三方面的主要负面影响,提出了相应的应对策略,以促进3D 打印技术的健康发展。 论文主题集中,思路清楚,结构完整,叙述详细。论文说明作者具有一定的专业基础知识和一定的科研写作能力。 这是一篇具有一定水平的硕士学位论文。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +1120,本文充分关注我国上市城商行发展阶段面临的风险,详细总结、梳理了以往文献中和商业银行风险有关的评估体系,在此基础上,通过和其它类别的商业银行进行对比分析、因子分析和聚类分析,较为全面地展现了我国城商行2014-2019几年间的风险现状,接着建立BP神经网络风险预警模型,较准确地预测了风险评分,并由此从政府部门、监管部门和城商行三个角度出发提出政策建议,对我国城商行的稳定和进步具有良好的借鉴意义。研究对象典型又特殊,研究方法科学又周全,不失一篇有价值的论文。,0,0,0,0,0,0,0,0,0,1,1,1,0,0 +1668,论文设计实现了一套义齿加工模型可视化及刀路轨迹规划系统,论文选题具有一定的理论意义和较高的工程实用价值。 论文针对义齿加工过程中所涉及到的技术及客户需求,研究了STL义齿文件的可视化技术、义齿加工预处理及刀路规划算法、分析了刀路轨迹预处理的具体方案、设计了一种简单的非线性误差计算方法以及修正方法,并在此基础上,开发了一套义齿加工模型可视化及刀路轨迹规划系统。该系统能够实现STL义齿数控模型文件的可视化,进行放缩、旋转、添加连接杆等操作,可对载入的STL文件进行分层处理,对输出的每一层图像进行投影、轮廓提取,结合事先设计好的算法输出G代码NC文件,通过合并每一层分层图像的NC文件的方式,从而得到整个义齿模型的刀路轨迹。最后通过CIMCO软件的仿真功能验证了该NC文件的正确性。 论文结构合理,论述清楚,符合规范。表明了作者具有一定的专业理论基础和较强的独立从事科研工作能力。论文达到了硕士学位论文水平。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +1522,绝缘栅双极型晶体管(IGBT)在电动汽车的电机驱动系中广泛使用,随着电动汽车规模的急剧扩大,电动汽车逆变器中IGBT 的失效问题和可靠性问题已成为研究的热点。硕士学位论文《电动汽车电机驱动系统中IGBT的失效机理研究》选题具有科学意义和应用价值。 论文对电动汽车电机驱动系统的工作原理进行了分析,研究了核心部件逆变器的组成器件IGBT 的失效机理。论文的主要工作和创新之处为: 1、使用软件对逆变器的工作原理进行分析,了解 IGBT 在电动汽车电机驱动系统逆变器中的工作环境及性能要求,并利用对 IGBT 的结构参数进行仿真设计,为损坏机制建立了结构模型; 2、对 IGBT 在大电流下发生擎住效应时的电流密度分布、温度分布进行了仿真分析,结果表明,一旦发生擎住效应,IGBT 集电极电流在经历负阻区后急剧增加,使器件内温度急剧增加,导致 IGBT 的损坏,并提出可通过增加 P+ 基区宽度以降低擎住效应的影响; 3、建立了 12 元胞的 IGBT 结构模型,并对其静态雪崩击穿和动态雪崩击穿和关断过程进行仿真分析,仿真结果表明,短时间工作在雪崩击穿状态并不会造成 IGBT 的损坏,但若IGBT 长时间工作在这种状态,大电流会产生很高的功耗,将器件烧坏,IGBT 在关断过程中元胞不能同时关断时, IGBT 内所有电流都聚集在最后一个关断的元胞处,导致该处电流密度过大,温度过高,引发 IGBT 的失效。 论文的工作均为仿真分析,若干结论也是仅对12个元胞的仿真得出的,与真实工况存在一定的误差,后续工作要对电动汽车电机驱动系统中逆变器中 IGBT 实验验证。 论文结构完整,理论阐述清楚,数据分析合理,结果分析可信,部分研究成果已被本学科学术刊物录用。这表明论文作者同学已经具备本学科领域的基础理论和专业知识,具有独立承担科研工作的能力。,0,1,0,0,1,1,0,1,1,0,1,0,0,0 +1780,论文研究政府行为、失望规避以及公平利他行为对合作并购的影响,具有非常重要的实际应用研究价值,其选题有重要的理论意义和现实意义。 论文工作表明,作者阅读了大量的文献,并根据研究主题进行归纳和整理,构建微分博弈模型,并通过数值模拟验证模型有效性。论文研究逻辑较清楚,结构较合理,研究结果表达清晰,其研究有一定的创新,研究结果对以合作形式开展并购交易的并购模式有一定的实际价值。 论文工作也表明,作者已具有了较系统的基础理论和较扎实的专业知识,具有了较强的独立从事科学研究的能力;论文写作规范,语言流畅;论文达到了博士学位论文水平。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +1736,论文选题与人们的日常生活息息相关,具有较强的现实意义。全文逻辑结构合理,方法得当,对常用的算法、模型了解较为全面,并能运用合适的模型解决问题,体现出学生有较扎实的理论功底。实证部分数据充分,通过对沈阳市区的垃圾量进行预测、估算得出需要的垃圾中转站数量,并对垃圾分类收运路径进行了优化,得到满意的结果,是一篇较高水平的硕士论文。,0,1,0,1,0,0,0,0,1,1,1,0,1,0 +809,这篇硕士论文的选题有意义,有一定的创新点。作者对相关内容做了比较详细的调查,需要的学科知识也基本上掌握了。论文结构很清晰,写作也比较规范,逻辑性可以通过。主要不足之处是对线性化系统的tracking control只是简单实用了MATLAB做最优控制的仿真,缺少了理论上的详细考察和证明。详细意见以下具体论述。 ———————————————— 第3章线性化以后得到了 (3.11) 和 (3.12),其中含有期望输出角度。然后作者直接使用最优控制指标函数和MATLAB软件进行仿真和评价。这个地方缺少了理论上的定性定量考察,即为什么使用最优控制能够使得跟踪误差趋向于零。针对(3.12),Omega为零时的议论很简单,但是非零的时候需要确切的议论和简单证明。 第3章和第4章的仿真中作者给出了很多变换初始值的例子和图形,实际上这是没有很大意义的。因为系统是线性化过的,所以当然只会对一部分初始值有效,而对大部分初始值应该是无法期待有效的。作者不应该只是给出仿真例子,而是需要理论上定量议论对那些初始值是有效的。还有,对那些初始值是无效的,也需要有合理公正的说明和评价。 第3章的建模议论很不错,为什么第4章的建模议论几乎没有?(4.1)是如何得来的等,需要有合适的议论。 仿真例子中的结果 P,K,为什么所有的数据全是正的?建议检查计算程序和结果。矩阵B的数值很小,会有计算误差...,0,1,0,0,1,0,1,0,1,-1,0,0,0,0 +2717,论文选题基本符合学术专业要求,具有一定的理论研究价值和现实意义。论文阐述了习近平关于民生重要论述的生成基础、主要内容和基本特征及时代价值。论文总体结构合理,文献综述较丰富,创新点较突出,行文格式较规范。修改建议如下:1.论文的摘要部分应列出论文主要结构和写作思路。写法:论文分绪论、正文、结语三个部分,其中第一章是绪论部分,主要内容是……;第二、三、四章是正文部分,其中第二章的主要内容是……,第三章的主要内容是……;结语部分的主要内容是……。2.建议将第一章中的“五、基本概念厘清”部分融入到第二章中;第二章中的“二”的下一级标题中的“我国”去掉,或是改为“中国”。3.论文第三章的“六、习近平总书记关于民生重要论述的基本特征”的下一级标题过于泛化,应有针对性,突出具体特征。4.文中的注释尽量采用国标,全文统一格式。5.第11页注释1,第15页的注释2,24页注释2,25页注释1,27页注释1,30页注释1,40页注释2,41页注释1等都是十九大报告,可引用《习近平谈治国理政》第三卷,其中的第一篇文献就是十九大报告,而且要标出页号。6.20页的注释,25页注释2,26页注释2,32页注释4,35页注释1应采用《习近平谈治国理政》第一卷,2018年版。7.22页注释3《邓小平文选》第三卷应为1993年版。8.参考文献中列出的期刊不要有页号。论文达到硕士学位论文的要求和水平,同意修改后参加论文答辩。,0,1,1,0,0,0,1,0,1,0,0,1,0,0 +2069,无槽高速永磁无刷直流电机具有调速性能好、转矩脉动小、效率高、成本低等优点,可以解决高速小功率电机效率低、成本高等问题,研究无槽高速永磁无刷直流电机具有实际应用价值。 论文完成了无槽高速永磁直流电机本体设计、通过有限元仿真分析所设计电机的电磁性能、提出在转子永磁体两段增加轴向充磁永磁来降低漏磁,提高转矩,具有创新性。 论文表述较清晰,结构较严谨,格式较符合学术规范,有理论仿真数据,分析结果较合理。,0,1,0,0,0,0,1,1,1,0,0,1,0,0 +441,论文将数据挖掘算法引入了连锁超市管理中,是个良好的开端,有一定意义。作者主要进行了以下几方面工作:(1)通过调研分析了目前连锁超市管理存在的不足之处,进行了功能需求分析,并完成了系统的可行性分析。(2)整理了基于数据挖掘的连锁超市信息管理系统的相关知识、技术的应用原理等,分析设计了各个功能模块的主要功能,开发设计了系统的数据库。(3)应用数据挖掘技术,完善了系统功能,增加了商品预测、市场预测的功能。阐述了Apriori 算法、K-均值算法以及时序模式挖掘的实现过程;并完成了该系统的功能模块实现,实现了商品的关联分析和市场预测,达到了提高连锁超市市场竞争力的目的。 但论文对智能模式识别方法的使用还只是初步的,深度较浅。论文写作条理清晰,文笔朴实,基本达到毕业要求。,0,0,0,0,0,0,0,0,1,0,0,0,-1,0 +2498,该论文针对固态锂电池电解质的发展应用及其存在的重要科学问题进行了研究,其结果对促进固态锂电池的发展具有一定的理论价值。该论文水平达到了硕士学位应有的水平。然而,论文中亦有需要注意的问题:(1)个别地方存在错别字或用词不当或标点符合使用不当问题,建议细读全文,予以修改。如摘要第6段第1行“-----,因此本章实验改变性-----”中的“章”应为“文”或“论文”。再如第16页表2-2中所列设备名称“气氛路”应为:“气氛炉”;第17页倒数第2行“------,在进行测量”中的“在”应为“再”。(2)第3.3.3小节第2段(第23页)中某些表述值得斟酌:“------,掺杂Ni2+后,LNMO中Mn-O键长较LMO的Mn-O键长有所增强,Mn-O键的平均键强有所提高”,因为通常键长是以大小而论的,键能才是强弱。(3)文章有关各实验的描述中,均未提到实验样品个数。如果实验样品仅1个,那么,实验结果的可重现性将受到质疑。因此,建议对有关实验部分补充说明测试样品个数。,0,0,0,0,0,0,-1,0,0,0,0,1,0,0 +2033,随着我国桥梁建筑的高速发展,薄壁空心墩柱是一种应用较广泛的下部结构形式。论文针对薄壁空心墩柱施工过程中的悬臂爬升钢木组合模板结构的力学行为开展研究,选题具有重要的理论意义和工程应用价值。 论文以贵州省江玉高速公路某在建薄壁空心墩工程为背景,对悬臂爬升钢木组合模板结构施工力学行为开展系统研究,进行了现场关键数据测试、有限元数值模拟和理论分析,发现施工过程中钢木组合模板内外温差大、高温持续时间长的问题,提出解决方案,并进行模型试验验证,其结论可为工程设计提供一定的理论依据。 该论文写作规范、条理清晰、工作量饱满,具有一定的创新性,达到了硕士学位论文的要求,同意修改后答辩。,0,1,0,1,0,0,1,0,1,0,1,1,0,0 +584,论文以脂肪醇聚氧乙烯醚(n=3)、脂肪醇聚氧乙烯醚(n=5)以及十二醇为原料,与正硅酸乙酯经酯交换反应,合成了脂肪醇聚氧乙烯醚硅酸酯。探讨了合成脂肪醇聚氧乙烯醚硅酸酯的最佳工艺条件。表征了产物的分子量分布、润湿性能、泡沫性能及热性能。选题基于日化工业的一般性工艺问题,采用常见方法进行了工艺优化研究,能掌握基本专业知识和实验技能,缺少引入较高级分析表征手段的能力,数据总结能力一般。,0,0,0,0,1,-1,0,0,0,0,0,0,0,0 +1415,该硕士论文“基于铁心材料磁特性分析的旋转式松耦合变压器研究”选题具有较好的理论和实用意义,研究成果具有较好的理论指导意义。论文已经反映出该作者在本门学科上掌握了较好的基础理论和系统的专门知识,研究方法切实可行,研究成果有一定的创新性。论文已经反映出作者具备了从事该领域科学研究工作或独立担负专门技术工作的能力,有一定的工作量,已经达到硕士毕业水平,同意其答辩。,0,1,0,1,1,1,0,0,0,1,0,1,0,0 +2597,论文“基于改进nOhlson模型的游戏企业价值评估——以三七互娱为例”,属于资产评估专业领域的研究范畴,选题较为新颖,关注到了当前资产评估研究领域的新问题,采用所学专业知识对其进行论证分析,因此所选题目具有一定的理论意义及实践意义。论文对Ohlson模型的相关理论和研究进行了梳理和归纳,并对Ohlson模型应用于游戏企业价值评估的适用性进行分析,从企业收益期和剩余收益预测入手,系统地分析了优化的路径等,建立了改进的Ohlson评估模型,以三七互娱为例进行案例研究,得出了较为合理的研究结论。论文选题具有一定的创新性,研究方法较为合理。论文的结构安排层次较为分明,具有一定的逻辑性和层次性,所用术语专业性较强,文章格式和文献引用符合学术规范。通过论文的写作可见,该生掌握了相关的基础理论以及案例研究方法,具有一定科研方面的研究能力。综上,论文达到了硕士学位论文写作水平。论文存在如下的不足需要修改:1.对游戏类企业的价值和价值评估特点的分析不足,导致方法的适用性分析没有依据和支撑。2.Ohlson模型应用于游戏企业价值评估的适用性分析,缺乏针对游戏类企业的分析,分析目的与分析内容关联度不高。3.Ohlson模型的改进思路,没有体现改进需要解决的问题,改进的目的是为了提高评估的科学性和客观性,或对评估对象的适用性。4.改进后模型的适用性分析,分析未能充分体现其对游戏类企业的适用性。5.案例分析中基于财务视角分析和基于杜邦分析法的分析,两个部分分析的目的和差异应体现,或差异不大?6.案例分析中参数的预测缺乏估算来源和过程。如营业收入增长率2021-2024年增长率分别为14%、16.8%、13%、10.6%等。7、建议完善游戏类企业价值评估特点分析,突出方法的适用性,凸显研究目的。8、建议案例分析中参数预测过程和依据有指向,使结果和结论更具科学性和严谨性。,0,1,0,0,0,1,0,0,1,1,0,0,0,0 +753,无线传感器网络(WSN)的感知数据能力和通信能力为很多领域提供了广阔的应用前景,WSN具有良好的鲁棒性和扩展性,分簇路由算法现已成为当前研究的热点。本文对无线传感器网络路由分簇算法进行研究,主要工作如下: 1、利用BP神经网络数据融合模型对簇成员节点进行融合,在遗传算法基础上加入免疫算子的免疫算法,结合三层BP神经网络数据融合模型来融合簇首与成员节点的数据信息,利用免疫算法计算最优传输路径,得到一条遍历所有簇首节点能量消耗的最优传输路径,并给出了两种改进算法的具体工作步骤以及算法流程; 2、对GABP优化的路由分簇算法和LEACH算法进行了综合比较与分析,从多个角度对免疫与BP相融合的路由分簇算法进行仿真实验,并把它与GABP优化的路由分簇算法和LEACH算法进行比较分析,结果显示所提出的两种改进算法均可减少网络的能量消耗,提高无线传感器网络整体的生存时间。 由论文反映出论文作者在本门学科上掌握了坚实的基础理论和系统的专门知识,具备独立从事科学研究工作的能力。研究结果具有实际应用价值。论文层次分明,推理较严密,逻辑性强。搜集材料齐全,文字表达准确。行文流畅,引文规范。论文结构、书写与排版规范。同意该论文作为硕士学位论文进行答辩。,0,0,1,0,1,1,1,1,1,0,1,0,0,0 +2290,本论文主要研究了漆酶催化丝素蛋白交联对再生丝素膜结构及其性能的影响。在漆酶催化丝素蛋白自交联的基础上探讨了接枝壳寡糖和壳聚糖的效果,并通过混入丝素短纤维探究对膜材料性能的影响。作者的研究思路清晰,逻辑严密,对实验数据分析得当,达到了硕士学位论文要求。但是在本文中还有一些小问题需要更改,如下:1.在1.1.2中第二段,请对丝素制备生物材料的物理方法进行简要介绍。第四段中,对化学法的总体评价需放到上一段。2.请对1.2.1中第二段整体内容进行语言逻辑调整。3.1.5.2中(2)和(3)可以考虑合并描述。4.请对2.3.2中粒径分析的表征方法进行语序调整。5.2.3.7中进行力学性能测试的试样是否有参照标准,若有请写出。6.在2.4.4形貌分析中,解释为不同反应酶量和不同反应温度下膜的电镜图,而图2-6中(B)和(C)中只是温度不同,而并未凸显出酶量的影响,请完善。第五章部分内容未引用文献。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +750,我国正在编篡21世纪的民法典,我们所面临的是人口老龄化问题。随着人类生活水平逐步提高,各国对成年人监护制度的改革势在必行,我国是人口大国,老龄化问题更为突出,更应提出应对老龄化问题中国民法方案和智慧,而成年人监护制度的改革与完善就是其中之一。本文研究颇有价值,论文结构较为合理,有较为系统的论证,有较为详实的资料,基本观点正确,行文较为规范,达到了硕士学位论文的水平。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +864, 本文对中俄两国比较优势和互补性进行了分析,确定影响国家间贸易的问题,并通过研究其他国家间农业合作经验提出解决问题的建议与对策。选题有较强的理论与现实意义。针对农业经贸合作的内涵,论文在评估两国各自潜力,比较各自优势、劣势以及互补性的基础上,在农业领域的生产、技术合作、劳务输出、农产品流通等全产业链的全面合作。论文选题有一定理论与现实意义,层次清晰,结构较为合理。工作量较为饱满。论文中对所提及的制度障碍、经贸合作等在实证中未能体现。注意文章的规范性,比如首行字母缩进2空格,字体字号的规范等。,0,1,0,1,0,0,-1,0,1,0,0,0,0,0 +1052,EW75合金是新型飞行器上的重要轻质材料,其动态变形性能是考核其服役安全性的重要指标。基于此,论文主要研究了EW75合金在不同温度梯度及应变速率下的变形机理,并根据实验数据进行Johnson-Cook本构方程和累积损伤方程拟合,模拟服役条件下EW75合金高应变速率变形的全过程。论文选题具有重要的学术意义和实用价值,研究结果可以为火箭、航天器等的发射提供必要的数据和设计依据。论文写作表述清楚,图表制作规范,研究内容丰富,分析合理,表明作者具有扎实的专业基础知识,能够运用相关知识科学地分析与解释实验现象及问题。,0,1,0,0,1,1,1,1,1,0,1,0,0,0 +32,1.论文选题有一定的理论意义和实用价值,对科技进步起到一定作用。 2.阅读资料一般,掌握课题的国内外研究动态及其评述过于陈旧,近五年的文献较少;对本论文所要解决问题的目的及意义论述较清晰,研究方向明确。 3.研究成果有一定的实用价值,研究成果创新点不足,论文难易程度一般,做了一定有效的工作,独立完成的内容体现不足。 4.有独立从事科学研究的能力,能够独立完成论文中的相关工作,掌握了课题相关的专业理论知识。 5.条理较清楚,概念清晰,逻辑性较强,分析严谨性有待提高,得出的结论需进一步提炼;论文撰写规范性有待提高,文字表达能力一般。,0,1,-1,1,1,1,-1,-1,1,0,-1,-1,0,-1 +2543,该文是以丹寨苗族蜡染图案为研究对象,将其在国潮服饰中进行创新设计的应用研究,具有一定的现实意义和实践应用价值。设计实践作品将蜡染图案与传统蓝染进行解构重组具有一定的创新性。存在问题:1.论文题目上“丹寨苗族图案”实际应当是丹寨苗族蜡染图案,文中并没有涉及其他文化形态的图案。2.关于“国潮服饰”概念界定不清晰,导致作者设计应用部分的作品难以看出“国潮”。3.文中第四章是探讨“设计方法”,其中4.2“丹寨蜡染图案在国潮服饰中的设计分析”并未提炼设计方法,且其中案例“花西子苗族印象”与“云南傣族的包装设计”与主题无关,也未交代采用原因。4.第五章“丹寨蜡染元素在国潮设计中的实践”,关键词再一次变动,“苗族”不见了,“服装”不见了,类似的情况文中多次出现。反映出作者写作态度不够严谨。5.全文逻辑有相当多的疏漏,论证和设计难以支撑观点。,0,1,0,0,0,0,0,-1,-1,0,0,1,0,0 +235,该论文将 Ce70Al10Cu20和 Ce69Al10Cu20Co1非晶合金加热至过冷液相温度,然后进行淬火+深冷处理,分析淬火温度及深冷时间对铈基非晶压缩机械性能及热稳定参数的影响规律;利用 DSC 分析淬火深冷处理对铈基非晶玻璃转变动力学的影响,探索该处理方法对非晶合金的作用机制;分析在过冷液相温度进行淬火+深冷淬火的循环处理对具有高玻璃转变温度的锆基非晶合金力学性能及组织的影响趋势。 该论文选题符合专业培养目标,题目有一定难度,但工作量不够大。选题具有一定学术研究参考价值实践指导意义。该生查阅文献资料能力较强,能较为全面收集相关资料,写作过程中能综合运用所学知识,分析问题综合运用知识能力较强。文章内容较为完整,层次结构安排科学,主要观点突出,逻辑关系清楚,但创新性不够。文章语言表达流畅,格式基本符合规范要求,参考了较为丰富的文献资料其时效性较强。,0,1,1,-1,1,1,1,1,1,0,0,-1,0,0 +1694,论文围绕抑制电压闪变风电机组控制策略研究,从以下三个方面研究:1)针对电压闪变的问题,首先对风电机组功率波动引起电压闪变的机理进行分析;然后考虑风电机组实时风速波动性,基于TurbSim建立风速模型;基于FAST分别建立空气动力学模型和机械模型;综合风力发电的动态特性和变桨距控制的时延性,基于Simulink分别搭建对应的模型,将上述模型组合成动态联合仿真系统。2)其次,为提升电能质量避免上述问题,本文提出一种基于方位角反馈的独立变桨距抑制闪变控制策略,由带通滤波器得到风机组输出功率的3P脉动分量,然后通过BP神经网络整定的PID控制器得到桨距角调节信号,使其与周期性变化方位角的余弦值相乘后再和统一桨距角叠加,共同调节桨距角实现变桨控制,相比于统一变桨距控制策略,提出的控制策略可以降低机组的输出功率波动,抑制电压闪变。3)提出一种基于叶片根部载荷和方位角联合反馈的独立变桨距控制策略。在方位角反馈调节每支叶片桨距角的基础上,增加叶片根部载荷反馈控制环节。,0,0,0,0,0,0,0,0,0,0,0,0,0,0 +2894,论文针对机器视觉的电感裂纹检测识别研究,该研究具有重要的理论意义和实用价值。论文参阅了大量国内外相关文献,结合激光扫描热成像技术对电感裂纹进行检测。论文还提出了一种基于二阶微分的图像合成算法,根据图像特点提出了一种轮廓消除算法对图像进行预处理,有效去除了干扰。论文对相关方法的实现过程进行了详细分析,通过实验验证了方法的有效性。论文工作表明,作者具备扎实的理论基础,能够利用掌握的专业知识解决实际问题,具有较强的独立从事科研工作的能力。论文层次分明、条理清楚、格式规范,论文达到了硕士学位论文水平,建议考虑以下几点意见,完善论文后进行答辩:(1)论文分别提出了图像特征提取、基于SVM的电感裂纹识别和基于深度学习的电感裂纹识别等方法,论文总结时应该将这些方法进行多角度对比,选择目标场景中最适合的方法。(2)论文最主要的工作是分类识别问题,前两章有很大篇幅是成像和特征提取问题,其中3.4提到轮廓提取算法实现电感裂纹的100%提取,这个结论相当于像素级的裂纹检测,应明确该正确率是像素检测还是裂纹有无。另外,对于深度学习模型,是否可以直接使用扫描图像作为输入,而不需要先经特征预处理生成待检测图像。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1312,该论文提出的基于LabVIEW的核主泵双向大推力油润滑轴承试验测控系统设计课题,其选题结合核工业关键技术难题,研究实验测控系统,具有重要的理论与实际应用意义。论文参阅了相关的国内外文献,对轴向力和软测量技术的研究现状进行了介绍和分析。根据核主泵双向大推力油润滑轴承试验平台的实际功能需求,对试验平台进行了总体设计;针对核主泵轴承润滑介质温度的影响,研究设计基于RBF神经网络的PID参数自整定控制器,对温度进行精确控制,仿真结果表明了控制的有效性;给出了基于LabVIEW的核主泵双向大推力油润滑轴承测控试验系统的软硬件设计,,并对系统进行了静态测试,其结果表明系统功能齐全,运行正常。论文写作规范,其工作表明该生具有一定的专业理论基础和较强的研发能力,论文达到了硕士学位论文水平。,0,1,0,0,1,0,1,0,0,0,0,0,0,0 +2309,本文聚焦于上级发展性反馈对员工双元创造力的影响,分析两者之间的作用路径,同时基于调节焦点理论,检验员工个体调节倾向在这一过程中发挥的作用。整体而言,论文达到了研究生的毕业要求,一些问题需要进一步修改:1、第二章理论基础部分,建议增加核心概念介绍。2、样本数据来自于河南省、广西壮族自治区、江苏省和黑龙江省等地区,样本的选取是否科学有效?3、第三章中第二部分上级发展性反馈对员工双元创造力的影响,二级标题与大论文题目完全一致,不合适。建议对第三章的章节进行整合,重新凝练。4、在回归分析中,各个变量是如何测度的?需要针对上级发展性反馈、工作调节焦点、员工双元创造力等所有的变量的测度进行解释。5、规范参考文献格式,尤其是外文文献,注意补全页码。6、论文缺少创新点的陈述。,0,0,0,0,0,0,-1,0,-1,-1,-1,-1,0,0 +2528,该实践报告《汽车工程》(节选)汉译,源自学生在东风柳州汽车公司的实习期间的资料。资料本身对于初入汽车行业及急需了解学习相关知识的人员有理论指导意义,因而,该生的语料选择兼备应用性和职业性。该报告的作者以胡庚申的翻译生态理论为指导,从三个维度阐释了她的翻译处理原则及主要相关项:语言维度、文化维度及交际维度。在解释其翻译实践的过程方面,从书面报告的字里行间中,我们清晰地读到了作者写作思路清楚,结构布局合理,主次分布有序,英语语言表达流畅,理论知识掌握较好,相关文献引入文本支撑观点自然切合,而且,作者竭尽所能进行每一项的详尽说明,十分肯定她的工作量饱满。翻译实践方面,作者做到了科技文本信息量满足为第一要素的原则,翻译译本语言客观,表达清晰。较好地完成了硕士学位要求的实践翻译水准。综合各项要求,该生的实践报告给与通过,并建议评分为优秀。建议修改:1)paper与report不可以混用;2)案例分析特别是语言维度的有些案例需要断句;3)参考文献在外文方面提供的直相关信息不足。,0,0,-1,1,1,0,0,1,1,0,0,0,0,0 +666,螺杆泵在石油开采工程中应用广泛,其中橡胶定子寿命与性能对螺杆泵的安全使用具有重要的影响。而橡胶定子受到高温、高压及腐蚀性液体的作用,对其进行力学及磨损研究是极其必要的。为此,本文选择丁腈橡胶和氟橡胶两种螺杆泵常用橡胶作为研究对象, 以环己烷和基础油的混合溶液为介质,分析拉伸作用对橡胶在溶液介质中的胀老化和力学性能影响。同时,在溶胀试验的基础上,进行了摩擦磨损测试,探究了环己烷浓度、载荷大小与定子橡胶磨损规律,分析了溶胀老化后的橡胶磨损机理。获得结论:溶胀后,丁腈橡胶质量增量高于氟橡胶的质量增量,但在硬度及弹性模量低于氟橡胶。预拉伸的橡胶溶胀拉断后,丁腈橡胶拉伸试样断裂强度表现为上升趋势,较氟橡胶低,断裂伸长率表现为下降趋势,较氟橡胶高,而两者的力学性能变化趋势相同。两种橡胶在磨损过程中磨损量和摩擦系数增大,并随载荷和环己烷浓度的增大呈上升趋势,丁腈橡胶在同等条件下的磨损表面较氟橡胶严重。论文研究结果为在腐蚀性液体环境下工作的螺杆泵橡胶定子的选择提供理论依据。该论文内容完整,理论分析合理,条理清楚,图标规范,文笔流畅。该论文表明作者掌握了本门学科坚实的基础理论和系统的专门知识,具备了从事科学研究和独立担负专门技术工作的能力。同意该生进行硕士学位论文答辩。,0,0,0,1,1,1,1,1,1,0,0,0,0,0 +2375,本文引入社会责任的因素,通过调整后的折现率并基于EVA估值模型,采用多种方法评估高新技术企业的价值,由于从环境、社会、治理等维度看,企业社会责任的均对折现率,即未来企业发展风险及价值均有显著影响,因而对高新技术企业价值评估工作是有益的补充。文章逻辑结构安排合理,论证过程较为严谨,论据较为充分,研究成果具有一定应用价值,相关建议对实践有指导意义。文中依据已有文献和企业社会责任发布标准来计算社会责任得分,但缺乏社会责任的社会公允价值的评估与计量,存在某些维度上的信息缺失。同时,文献梳理中缺乏高新技术企业社会责任的有关内容,这部分恰是与文章选题最相关的内容之一。文章总体达到硕士学位论文水平,同意修改后答辩。,0,0,-1,0,0,0,0,0,1,0,0,0,0,0 +1620,论文基于国家网络空间安全提出并论述网络空间自卫权的行使问题,选题具有一定的新颖性,特别是面对网络攻击新形势,如何在国际社会推动网络空间安全立法、如何在国际法规则下设立完备的安全战略并通过自卫保护自身的合法权益,理论研究确有意义。在解决网络空间中国家行使自卫权的问题中提出实现网络信息共享,建立信息防御网以抵御网络攻击,同时在我国的网络安全法中明确网络攻击的性质及国家行使自卫权的限制,以推动网络空间国家自卫权的实现,具有实践意义。 论文结构是清晰的,符合基本写作规范,从提出问题分析问题解决问题入手,逻辑性强,语言表达准确。达到硕士研究生论文水平。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2841,论文以激光冲击制备梯度纳米结构镁合金强化效应分析及数值模拟为题,具有较好的工程背景和一定的创新性。参考文献引用较为合理,资料汇总具有较好的时效性和全面性,反映了作者较好地掌握了该选题国内外的发展情况。实验方案设计基本合理,具有一定的创新性和技术深度,所获实验数据较为真实可靠,研究数据及结果分析基本符合该领域的理论和专业知识,研究结论具有一定的实用价值和应用前景。论文条理较为清楚,逻辑性较强,文字图表较为规范,文献的引用符合学术规范的要求。论文工作量尚可,并形成了一定的研究成果。鉴于以上评述判定本论文达到了申请硕士学位的水平,同意对于以下问题修改后进行答辩。论文的不足之处:1.“1.4.1研究内容”部分需要重新撰写,绪论、实验过程和研究方法、总结与展望,不应成为研究内容;2.“2.1试验材料”试样的尺寸除图2-1外,建议进行描述(尤其平行段宽度、厚度等);3.本文题目及研究对象为梯度纳米结构镁合金,全文未见纳米尺度的组织结构图片;4.第三章所提及的{10-12}拉伸孪晶和{10-11}压缩孪晶,来自参考文献,进行结果分析尚可,但作为结论,支撑不够,全文并未对相关孪晶类型进行表征;5.P70“5.1全文总结”应为作者工作的呈现,在此部分引用参考文献有待商榷。,0,1,1,1,0,0,1,0,1,0,1,1,0,0 +2163,轴承作为当今工业设备中的一种重要的关键结构组成零件,是高精密装备不可或缺的零部件之一。航空轴承用低碳高合金钢中较高的合金元素含量保证了优异的综合力学性能,但是也导致大量残余奥氏体存在,可能使轴承钢的尺寸稳定性下降。本文作者研究了热处理及冷处理对合金显微组织、相转变、硬度及尺寸稳定性的影响规律,具有较大的工程实用价值和一定的理论意义。 论文的主要见解和结果如下: (1) 研究获得了固溶处理、等温淬火以及回火处理参数对碳化物、马氏体、残余奥氏体等微观组织及显微硬度的影响规律,获得了较优的空冷淬火+回火和等温淬火+回火热处理工艺。 (2) 研究获得了稳定处理工艺和次数对显微组织和硬度以及尺寸变化的影响规律,确定了较优的稳定处理工艺。 论文层次分明,思路清楚,撰写认真,图表较规范,方案可行,分析合理,结论正确。表明该生已掌握了本门学科坚实的基础理论和系统的专门知识,具备从事科学研究的能力。,0,1,0,0,1,1,1,0,1,1,1,0,0,0 +2366,本文以轻资产企业为研究对象,采用改进的EBO模型对其进行价值评估,并以同仁堂为案例进行价值评估的对比分析,结果表明改进后的EBO模型评价结果更为准确,更具有合理性。选题具有一定的理论意义与实践意义,然而在论文的撰写过程中,缺乏相应的工作量,创新不足,基本到硕士学位论文水平。此外,还存在以下问题:1、研究背景过于简单,且与本文的研究对象“轻资产企业”联系不够紧密。2、建议将研究现状按照一定的层次进行梳理,而非区分国内研究与国外研究;其次,文献评述未凝练出现有研究存在的主要问题;最后,文献综述中建议补充参考文献。3、优化技术路线图。4、第二章中介绍了5个理论,是否所提理论在本文中均有应用?如果是,建议重新梳理研究过程,减少理论数量;如果不是,建议删除不相关的理论。5、第三章中改进的EBO模型几乎照搬已有研究,本文的创新点在何处?6、建议增加每章小结。7、总体而言,本文工作量不足,缺乏创新点。,0,1,-1,-1,0,0,0,0,0,0,0,-1,0,0 +494,论文选题膜材料制备,研究氧化石墨烯(GO)的制备和表征,研究,制备 GO/PVDF 微滤膜的方法,评价在加入不同添加剂的情况下,GO 含量对膜性质的影响;研究改性微滤膜抗污染的性质等,探索内容符合化学工程学科的研究方向。获得的研究成果可为制备氧化石墨烯技术提供新的实证支撑;为制备高性能微滤膜提供新的思路。 该论文综述比较全面且客观,获得有价值的信息,为实验研究指明了方向;实验设计、研究思路和方法正确;论文的主要研究内容包括:制备氧化石墨烯及表征;制备GO/PVDF 微滤膜及表征;GO/PVDF 微滤膜抗酵母污染的验证。论文工作量饱满,研究内容丰富,层次分明,获得大量有价值的结果和结论。其中,在PVDF中加入GO制备抗污染膜的思路有一定新意。 论文所述观点正确,论述合理,文字书写、表述基本规范。 论文达到化学工程科学历硕士学位水平,同意进入答辩环节。,0,0,0,1,0,0,1,1,1,0,1,0,0,0 +703,硕士学位论文: 基于深度学习的开关柜放电声音识别的研究,在研究选题上具有一定的工程使用价值,在方法描述上不是很清晰,尤其是优缺点对比上需要增加实验样本及分析数据,再就是实验数据资料的收集上不能单纯的依靠模仿的声音,这与真是的工况不一定相符,所以对于方法的有效性上会有缺失,希望在这些方面重点改进,同意答辩。,0,1,0,0,0,0,0,0,0,-1,0,0,0,0 +1401,该篇论文选取了哈药集团并购美国GNC业务的案例,进行深入分析。选题符合专业硕士论文的规范和要求。作者在简要综述了跨国企业的并购理论后,对哈药集团和GNC的业务进行了介绍,并对并购的动因进行了分析。然后主要从金融市场反应和公司并购风险进行了定量与定性结合的分析,并提出了相应的建议。论文的结论对于理解医药行业的跨国并购,具有一定的现实意义。论文结构比较完整,层次比较清晰,符合专业硕士论文的写作规范,但在论文分析逻辑和语言表述方面,略有瑕疵,同意作者经过修改后参加论文答辩。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +3029,"装载机铲装阻力的大小直接影响到铲装量、铲装时间和铲装油耗,研究铲斗斗尖的运动轨迹及铲装阻力对实现装载机的铲装自动化、智能化有着重要的理论价值与现实意义。论文利用装载机铲装试验平台对碎石物料进行铲装试验,通过装载机的实时转角、装载机整车位移以及铲斗的具体数据得到实时铲装轨迹,并通过编程计算出铲装轨迹及铲装阻力,联合分析铲装阻力和铲装轨迹得到最优铲装轨迹。研究方案可行、方法得当,论文撰写思路较清晰、观点明确,研究结论具有一定的应用价值。论文达到了硕士学位论文的水平,建议进行硕士学位论文答辩。论文存在以下几个问题,供作者修改参考:(1)语义表达方面的问题较严重,如:摘要部分第1行“…由于今年来油价上涨…”、第2行“…油耗大量能加,因此…”、第8行“…铲装效果进行分析从而进行了一下研究:”、第10行“…进行计算用过特定的轨迹优化方法对载机工作装置…”、第12行“对工作装置上的传感器进行分析,…”,第1章绪论部分第一段“…随着我国快速发展工程机械企业也不断增加”、P2中部“…将基于位移传感器的油缸位移得到铲斗转角的专利方法进行编程运算…”、P3中部“范丹丹通过设计了铲装试验台从而模拟铲装过程中所受的铲装阻力”、P5第3行“黄中一为自动铲装规划为铲装轨迹”、P68结尾“只能推导出所有阻力的合力:外载荷,无法精确得到各个方向的铲装阻力”等等,语句不通;(2)P4中部“国外也有部分学者进行了铲装轨迹研究,YuMeng通过分析最小能耗,提出了…”,作者单位为“UniversityofScienceandTechnologyBeijing”,不是国外学者。(3)标点符号、错别字等问题,如:P1中部“…生产各型号装载机12万余量,其中有3万余量为出口量”、P3第二段第3行“龚捷等通过通过对比分析曲线和直线铲装轨迹下…”、P4倒数第5行参考文献[37]中多处“,”应为中文输入法下的“,”、P6第5行“如图1-2所示:铲车在完成铲装作业后…”中的冒号应为中文输入法下的“:”、P16、P17多出“五伦仪”书写错误;P68第12行“…所以需要跟新试验设备…”;(4)P2第3行“铲装作业阻力是指装载机在铲装作业时…”与P2最后一段“铲装阻力是指装载机在铲装作业时…”,两者是否一致?(5)排版中的问题:变量应为斜体,如P6、P7、P8、P17、P35正文或图片中的F、P21的S、h、L、θ等;页面底部空白偏大,如P24、P29、P43、P46、P64、P57、P60等;P32、P33中的序号4-10应该与前面一致,加上“()”;P67“为研究铲装自动铲装的轨迹铲装效果…”首行未缩进;(6)P10、P12、P13中的文字“如图5”、“如图6”、“如图7”、“如图8”、“如图9”、“如图10”,与图名的编号不一致;(7)P39的“3.2.4GUI界面设计”部分,建议附上所设计的界面截屏或照片;(8)P67第一段、“(2)分析了传感器再铲装过程中…”整段,语义不清楚,建议重新组织语言;(9)部分参考文献列写不规范,缺少页码、或卷期等信息,如:[12]、[13]、[14]、[15]、[34]、[35]、[36]、[51]、[54]、[55];文献[42]硕博士论文出版地书写错误。",0,0,0,0,0,0,-1,-1,1,1,0,1,0,0 +2085,研究大气腐蚀中不同应力对铜铝复合板造成的腐蚀损伤及由此引起的性能变化非常重要,本文通过模拟大气腐蚀进行室内中性盐雾加速实验,探讨不同应力对铜铝复合板腐蚀行为的影响规律。论文选题具有较大的理论意义和实用价值。 论文作者查阅了较多的国内外相关文献,对本课题的国内外研究动态的掌握全面、评述客观,对本论文所要解决问题的目的及意义的论述充分,目标明确。 论文研究了拉应力、压应力和弯曲应力对铜铝复合板腐蚀行为影响规律和作用机制,研究成果的实用价值较大,具有一定的创造性,论文的难易程度适宜及工作量饱满。作者扎实掌握了本专业理论知识和实验技能,具备较强的独立从事科学研究的工作能力。 论文撰写概念清晰,分析较严谨,实验结果真实,所得结论真实可信。论文撰写格式较规范,表述清晰。,0,1,1,1,1,1,1,1,0,0,1,1,0,0 +2933,热泵空调系统作为电动汽车热管理系统重要组成部分,对整车的经济性、安全性、舒适性等性能具有重要影响,课题选题合理;文章阐述了电动汽车热泵空调系统国内外研究现状,表明作者对本研究领域知识有一定了解;作者基于理论分析、数值计算和实验相结合的方法,对电动汽车热泵空调系统进行了建模、参数匹配、仿真分析和实验验证,表明作者已基本掌握相关专业知识,具有独立进行科研工作;论文达到硕士学位论文水平要求,同意答辩。2.不过论文仍存在的一些问题:(1)论文排版不规范,建议规范;(2)文献综述方面缺少对研究现状问题的凝练;(3)热泵空调系统重要的热源,电池和电机的产热、散热等模型不完善;(4)论文第二章的计算理论支撑不够。,0,0,-1,0,1,1,-1,0,0,0,0,0,0,0 +2507,该论文主要是利用财经文本数据和股票历史交易数据对股票价格进行预测,本文的创新之处是利用Bert与LSTM的融合,形成财经文本情感分类模型,将CNN与LSTM结合应用于股票价格预测,最终通过财经文本的情感程度值和构造的技术性指标、利用融合后的股价预测模型进行股价的综合性预测,预测效果较好。本文的选题有实际意义,能够利用机器学习和深度学习方法对股价进行预测,研究工作深入,工作量比较饱满,研究成果有一定的应用价值,论文逻辑清晰,结构合理,达到硕士学位论文的水平。论文存在以下不足之处:财经文本数据是进行有监督训练吗?如果是进行有监督训练,训练样本如何定义标签,文中没有具体交代;论文中有少字和重复等情况,如第四章第一句话,第8页图1-1中英文序号不一致,请进行仔细查改。,0,1,0,1,0,0,1,-1,1,0,0,1,0,0 +716,"随着越来越多的微网接入传统电力系统,渗透率也逐渐提高,电网结构、管理模式、协调策略以及信息交流的复杂程度将大大增加,论文选择相关问题展开研究,具有很好的工程意义。 论文建立风光储微网数学模型,在微网技术的基础上,选用了多微网集群化的连接模式,基于电网多个状态参数影响的SVD 优化方法优化微网分类阈值,对多个微网进行不同时段的变阈值分类,并将相同分类结果的微网进行集群管理,行使类型功能;通过对集群整体和配网采用基于多代理技术的分层协调机制,将调度决策过程分为集群层经济和可再生能源消纳率最优管理过程和配网层协调调度过程,分别建立相应的数学模型,提出综合目标函数及其相关约束,并运用粒子群算法给出模型求解过程;对10个微网进行算例仿真验证,得到不同时段的分类结果符合电网的策略期望。",0,1,0,0,0,0,0,0,0,0,0,0,0,0 +2390,本文针对智能割草机的避障系统进行深入研究,采用深度学习目标检测算法来实时检测前方可能存在的各类障碍物风险,并基于改进的人工势场法进行避障处理,提高了割草机的安全性。设计了障碍物检测卷积神经网络、构建草坪环境障碍物数据集、障碍物的定位及避障处理。论文在常见目标物检测方面就应用场景和yolov4改进方面,具有一定的创新。不足和建议修改如下:1)前后的逻辑需要修正,如前文研究的障碍物检测方法在后文的避障算法中如何体现,文中未说明,建议补充。2)本文题目为避障系统,但全文重心在障碍物识别。且避障系统并没有得到实际验证,最后避障实验为仿真,实际工程中可行性有待商榷。3)避障算法并未考虑动态障碍物,仅考虑静态障碍物。建议补充。,0,0,0,0,0,0,0,0,-1,-1,0,1,0,0 +410,论文对H证券公司内部控制体系问题进行研究,选题具有一定的现实针对性和实际应用价值。论文在对 H 证券公司内部控制体系现状进行分析的基础上,并运用层次分析法对H 证券公司内部控制体系进行分析,最后提出了对策建议。纵观全文。层次较为清晰,有一定的逻辑性,表明作者已经基本掌握了本学科的基础理论和专门知识,基本达到了硕士学位论文水平。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +2740,论文选题具有一定的创新性,问题来源于实践,体现了应用性和职业性,研究结论有一定的实践意义,介入过程比较深入,材料比较丰富,论证比较充分,结构合理,层次分明,文笔较为流畅,形式比较规范。能够综合运用相关理论知识,对介入效果有量化的评估。达到硕士学位论文水平。知觉压力量表的出处来自哪里,它的信度和效度应该介绍清楚,问卷调查法的样本太小,结论不具有推论性,且没有介绍抽样方法。研究内容和研究思路属于开题报告中的内容,论文中不应再出现。,0,1,0,0,0,0,1,1,1,-1,-1,1,0,0 +2950,随着智能制造技术的发展,机器视觉在产品质量检测、引导辅助机器人等方面应用广泛,促进了生产过程的自动化、智能化,提高了工厂的生产制造效率。论文选题具有较大的理论价值和实际应用价值。论文综述了超声波、机器视觉在汽车拼焊件焊点检测研究现状的基础上,设计了基于机器视觉技术的汽车拼焊件焊点质量检测系统;研究了基于图像处理的汽车拼焊件焊点检测方法和基于深度学习的汽车拼焊件焊点检测方法,并以此开发了汽车拼焊件焊点检测系统软件并进行了现场测试,测试结果表明,该测试系统完全达到该公司对焊点质量的检测要求。论文运用的理论知识、研究方法和实验手段符合实际情况,理论论证较严密,实验设计较合理,方法和数据较为正确可靠。反映出作者较好地掌握了基础理论和专业知识,反映出作者具有独立从事科研工作的能力。该论文思路清晰,结构严谨,分析合理,逻辑性较强,体现了论文作者具备较强的基本知识运用能和科研能力,论文写作较规范,理论深度符合硕士毕业要求。为进一步提升论文质量,对论文修改有如下建议:1.英文摘要软件翻译痕迹明显,语言过于汉语话;2.绪论部分文献综述不够全面,如有关焊点质量检测技术质量图片分析方法缺少必要的综述分析;3.检测系统总体结构描述不够清晰,缺少总体结构图和必要说明;4.图片名称说明不够完整,部分图片缺少必要的文字说明如图3-14、图3-15等;5.公式不够规范,公式不应出现数字计算过程如公式4-29至公式4-32;6.第五章实验结果缺少必须的分析和结论说明;7.6.1结论部分不够凝练,需进一步简化;8.参考文献格式不够规范,应列出全部作者,错别字较多,近三年的文献较少,总文献数量略显偏少;9.论文排版不够规范,段落间距、空白处较多,部分文字不通顺,文字说明不够完整,图片缺少必要的指引线等,尽量避免使用第一人称。,0,0,-1,0,1,1,1,0,1,0,0,0,0,0 +1553,论文《基于骨架模型的 TOP-DOWN 汽车零部件设计研究》围绕传统自底向上设计方法中汽车零部件产品设计效率低下、难以快速进行变型设计等问题,从汽车零部件的设计建模过程入手,借鉴基于骨架模型的TOP-DOWN设计方法对自卸车、拖拉机提升器壳体、客车底盘等产品的结构建模特征进行了分析并建模实现,提出了一套系统的汽车零部件结构设计方法体系。论文选题新颖,研究成果具有一定的理论意义和参考价值。 论文结构严谨,层次分明,图表清晰,研究内容重点突出,反映了作者具有应用本学科的理论知识独立从事科学研究的能力。,0,1,0,0,0,1,0,0,1,0,1,0,0,0 +2276,"本论文以布洛芬缓释胶囊为研究对象,用拉曼光谱和紫外分光光度计这两种光谱仪器为测量仪器,结合角度转换算法、改进的ICA分离和斜投影算法,建立了快速分析布洛芬含量和溶出度的新方法。本论文选题具有一定的创新性,论文结构紧凑,工作量饱满,数据分析合理。不足之处在于:1、第四章部分缺少与标准方法的对照分析;2、部分图表制作不够规范(如图4-1,4-2),英文摘要中存在多余空格等错误。整体来讲,本论文已达到了硕士论文水平,同意进行硕士学位论文答辩。",0,1,0,1,0,0,0,0,1,0,0,0,0,0 +1502,基于磁致伸缩材料的能量收集途径是近年来能量捕获研究领域备受关注的分支领域。本学位论文针对解决小功耗电子设备电能有效供应问题,以片状磁致伸缩材料为主要元件,结合法拉第电磁感应效应,利用受到环境振动作用的磁致伸缩材料实现振动能转化为电能的过程,围绕为小功耗电子设备供电的环境振动驱动型小功率磁致伸缩发电机理及相关关键技术展开研究,基于此采用磁致伸缩材料设计一种通过将吸收振动,用矩形磁铁为铁镓合金提供预磁化磁场,用感应线圈感应电能的磁致伸缩振动收集与发电装置。实现该发电装置为振动检测、汽车胎压检测等系统中的小功率电子设备持续供电。本文有特色的创新性工作是:阐明了诸如振动复合梁结构、偏磁布局、匹配阻抗等因素对能量收集和转换能力的影响,对影响悬臂磁致伸缩采集机采集性能的主要因素的定性规律进行了总结。达到了硕士学位论文的要求。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1875,论文针对车辆悬架系统中传统被动悬架存在的不足,提出电磁主动悬架的结构优化与控制方法研究,论文选题具有一定的理论研究和现实意义。论文设计一款直线电机作为悬架系统的电磁作动器实现不同工况下的控制与能量收集。论文确定了悬架的整体结构,建立作动器有限元模型进行仿真分析。建立了随机路面模型与悬架动力学模型,确定三个性能评价指标。搭建了试验台进行作动器试验分析。论文结构基本完整,行文流畅,论文工作表明,作者基本掌握了专业理论知识,具有独立从事科学研究的工作能力,达到了硕士毕业水平。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +2797,"论文研究了基于混合次分数Black-Scholes模型的欧式期权之理论定价、随机模拟和神经网络(LSTM)模型数值验证等问题。选题具有学术意义和理论价值。可见该同学基本掌握本专业基本理论、方法和借用软件解决科学问题的能力,达到了本专业硕士学位应用的水平。不足之处有:1.从专业学位培养目标角度,论文的实践性、应用价值显得比较薄弱;2.论文表述的规范性和严谨性有待改进和提高。如Page1,摘要、绪论:随着现代社会经济的发展,金融市场如火如荼衍生出一系列丰富多彩的金融衍生产品。为什么要重复?Page8,这里为什么有等于0,严谨的定义是什么?Page10,等注意表述的规范性,一般不需要后面加“:”。G既然是二元函数,这种“G_t”写法不合适,G这个函数的条件表述不完整,对S是否具有二阶连续偏导数?lnS是一元函数,为什么要写成偏导的运算符号?这个引理是自己的成果吗?如果不是就直接标注出处,不用证明。自己的研究成果才有证明的必要。一句话,在论文中要清楚的表明,哪些是自己的研究成果,哪些是引用的成果,不能混淆。",0,1,0,0,1,1,-1,0,0,0,0,-1,0,0 +3045,总体看,论文选题新颖,结构完整,写作相对规范,研究方法使用得到,语言表述通顺,基本达到了硕士生毕业论文的要求。建议和意见如下:P5-6论文结构及研究思路中研究结构一章章进行表述,这样表述方式并不能体现出论文的逻辑性,建议按照逻辑进行表述;此外部分文献格式并不规范,建议给予规范性处理。1.3国内外研究现状文献罗列现象较为明显,建议进行规范性处理。基于第二章和第三章有交叉部分,建议将论文第二章和第三章进行合并处理,建议7.1总结部分进一步提炼,提炼出论文的研究结论。,0,1,-1,0,0,0,1,1,-1,1,0,0,0,0 +1880,论文针对大齿轮的制造中的检测精度问题,结合大齿轮检测过程中的技术难点, 设计了一台大齿轮齿距偏差测量仪。通过相对法作为技术基础,对大齿轮进行旁置式在机测量,以这种测量方法来提高大齿轮齿距偏差检测的精度与可靠性。利用LabView完成控制系统软件的开发。并进行了测试验证。 论文选题具有较好的工程应用背景,对于国内外相关研究的进展调研较好,研究成果具有一定的理论意义和实用价值,研究成果具有一定的工程创新性,论文工作量较好。体现了作者较好的掌握了专业理论知识,具有一定的从事科学研究的能力。引文规范,文字表达较清晰。,0,1,1,1,1,1,1,1,0,0,1,1,0,0 +2743,论文选题具有一定的理论价值和实践意义。论文采用案例分析方法,针对物流企业价值评估问题,以韵达股份为案例公司,通过分析物流企业价值评估现状,选择三个可比公司,采用改进市场法评估案例公司价值,并有针对性地从提升企业价值评估质量和提高物流企业价值等方面提出相关的优化建议,有一定的合理性及可操作性,对物流企业价值评估有参考价值。论文中心突出,观点鲜明,论述较充分。论文达到硕士学位论文要求,同意修改后直接答辩。但是,论文还存在不足之处,仍需要进一步修改、完善。1.建议论文题目中,突出案例公司---韵达股份。摘要中,也应点出案例公司,文中应以上市公司证券名称统称案例公司为韵达股份。2.论文的理论部分,应放在物流企业价值评估实践之前。3.应进一步分析影响物流企业价值评估的因素,并阐述评估方法的选择及模型的适应性分析。4.应进一步分层次分析评估结果的合理性。,0,1,0,0,0,0,0,0,0,-1,0,0,0,0 +2053,为解决海洋气候潮湿、高盐的特殊环境下直线永磁电机海浪发电系统的运行可靠性问题,论文在分析和掌握该科学领域成果及前沿动态基础上,以平板型直线磁阻电机为对象,以如何提高直线磁阻电机运行效率及功率密度作为入手点,开展了电机特性分析工作,在此基础上提出一种基于熵值法灵敏度分层直线磁阻电机参数优化方法,并进行了仿真验证。该篇论文的主要工作和学术贡献有: 1)以平板形直线开关磁阻电机为对象,设计了模拟退火算法、响应面法和单参数扫描法相结合的多目标设计流程,并进行了LSRM 的单电流建模与仿真,仿真结果初步验证了优化后的电机效率、能量密度有了一定的提升。 2)建立了二维直线开关磁阻电机有限元模型,对处于不同工况下LSRM分别进行了优化前后的仿真对比,初步验证了所提方法的设计效果。 论文研究工作表明作者已基本掌握本专业的专业知识,能用相关学科的技术、方法解决科研工作中的实际问题。该论文已基本达到硕士学位论文的水平,建议按照修改意见进行修改完善后再组织硕士学位论文答辩。,0,0,0,0,1,0,0,0,0,0,0,0,0,0 +1709,论文选题具有良好的理论研究意义和工程应用价值。论文分析了电力变压器机械振动机理,研究了电力变压器绕组机械振动特性,提取了振动特征值,将极限学习机神经网络模型应用于绕组故障诊断中,并采用粒子群算法对极限学习机的核函数进行了优化,开发了电力变压器绕组状态诊断程序。但是论文中参考文献格式不够规范,英文表述也需要进一步改进。,0,1,0,0,0,0,-1,-1,0,0,0,0,0,0 +2497,该论文针对齿轮箱的运行状态评估与健康预测展开研究,设计了评估和预测的总体方案,提出了求取主观权重的改进方法,设计了灰色预测模型,提高了模型预测精度。建议:1、文中部分图不是很美观。2、第4章4.1节介绍了预测参数的选择。作为一个小节内容太过肤浅笼统,为什么选择综合评价结果作为健康预测参数没有说明,选择其的优势在哪里?3、论文第6章总结与展望部分:本论文的研究创新点到底是什么,没有描述清楚。,0,0,0,0,0,0,-1,0,0,0,0,-1,0,0 +2563,"该选题来源于翻译实践,所选源语文本语言特色鲜明,难度适中,尚未有译本;但该报告体现的问题意识模糊,应用价值不高。翻译实践部分完成得不错:1.能准确理解原文的内容,误读和遗漏信息少。2.能忠实表达对原文的理解,大部分语言通顺流畅,符合目标语相关语言和文化规范。3.建议进一步检查译文中的个别错误,如“丢”这一词的英译:翻译报告部分问题较多:1.框架结构完整,但各级标题的提炼不够得当;论证过程逻辑不顺畅,段与段之间、段落内部的论述逻辑混乱,一会儿东,一会儿西,不能围绕某一个观点系统论述,经常混乱得没有章法。2.重点不突出,对例句的分析理据不饱满,对于如何应用相关翻译理论解决翻译无主句时的困难没有清晰明确的阐述,未体现所用理论或策略的指导意义;2.1.1中源于源语文本的例子应该用汉语。3.语言不严谨、不准确、不流畅。正文中有大量语言错误,有些是低级错误,如Inordertobetterexplorethetranslationstrategiesofnon-subjectsentences,thethispaperanalyzestheexpressionformsofnon-masterstatementsthroughthetranslationofnon-mainstatementsinthe""XLorry-mountedCraneOperatingInstructionsandMaintenanceManual"".汉语摘要部分的语言像英式中文,标点符号的使用也不正确。英语摘要部分的语言表达也有很多错误,如Asakindofinformationaltext,""XLorry-mountedCraneOperatingInstructionsandMaintenanceManual"",inwhichcontainsmanynon-subjectsentences.4.格式不规范。手册名有时斜体,有时既斜体又加了引号;Contentspage标题大小写不规范;参考文献和文中注释格式都不规范。",0,1,0,0,0,0,1,-1,-1,0,0,-1,0,0 +554,论文以G7龙门立式加工中心为研究对象,研究了其整机及主要零部件的振动特性,并对关键部位进行优化了设计。选题与生产实际有较为密切的联系,具有理论意义和应用价值。作者广泛阅读了相关文献,对研究和应用现状进行了分析和综述,开展了有价值的研究工作。 论文首先对立式加工中心进行了模态试验和振动测试,找出了使立式加工中心产生振动的主要频率,并对这些频率的来源进行了分析;其次建立了立式加工中心整机有限元模型,并对其进行了模态分析和谐响应分析,找到了立式加工中心的薄弱环节;最后对横梁和主轴箱主要结构进行了优化,优化后的结构动静态性能均有提升,进而提升了加工精度。 论文反映作者已掌握了本专业的基础理论知识,具有从事本专业科研开发的能力。论文叙述较为清楚、条理性较好,有逻辑性。,0,1,1,0,1,1,0,1,1,0,0,0,0,0 +1919,论文针对基于多传感器融合的移动机器人定位问题展开研究,选题具有理论和实际意义。 论文对移动机器人定位和联邦滤波算法的国内外研究状况进行了较全的综述,抓住了本课题的关键。 论文分析了导航定位基本原理,推导常用导航坐标系的转换关系,建立了惯导、GPS、里程计三者的误差模型。根据系统状态协方差矩阵计算各子系统的分配因子,利用状态变量观测矩阵对分配因子再次分配,提高系统定位精度。设计了自适应鲁棒定位算法,实时估计状态噪声模型,引入调整因子不断更新测量协方差矩阵,改善系统的定位精度。仿真验证了研究成果的有效性。 论文表明,论文作者掌握了基础理论和专业知识,有一定的从事科研能力。 论文写作层次清晰,逻辑性强。,0,1,0,0,1,1,0,0,1,0,0,0,0,0 +1464,该文针对直驱H型平台的轮廓精度展开研究,论文目的明确,具有实用价值。国内外现状分别对直驱H型平台及其控制策略进行归纳,引用文献真实、贴切、规范、新颖。该文首先根据建立永磁直线同步电机的数学模型,推导并建立了在考虑了X轴方向电机对Y轴方向电机产生扭摆力情况下的直驱H型平台数学模型;其次,针对H型平台单轴永磁直线同步电机易受到负载扰动和推力波动等不确定性因素的影响,设计了全局积分滑模单轴位置控制器保证单轴的跟踪精度,并进行了仿真验证;最后,针对H型平台存在的轮廓误差,设计了基于交叉耦合控制的模糊神经网络轮廓误差补偿器,仿真结果表明,模糊神经网络交叉耦合轮廓控制比无交叉耦合控制能明显减小系统的轮廓误差,提高H型平台的轮廓精度。研究内容明确,方案合理,依据可靠,合理运用了基本理论及专业知识,研究方法科学、合理、可行,技术手段实用,写作规范,具有系统性与逻辑性。符合硕士学位论文的要求,同意答辩。,0,1,1,0,1,0,1,0,1,1,0,0,0,0 +590,论文在清障车整体结构分析基础上,分别选择车架及副车架、吊臂、托臂等关键部件,通过限元分析方法对各部件的关键零件进行静力分析方法,得到了最大受力部位和截面,并以此给出结构改进建议;特别是针对托举结构的安全性问题,设计了推拉式正负倾角功能装置。论文整体达到了硕士学位论文的要求,基本掌握了本学科的相关知识,论文选题具有一定的工程应用价值;但论文研究的深度和广度不够,工作量不足,缺乏动态分析和恶劣极端工况下的受力分析,缺少结构的优化设计与优化分析内容,论文分析还不够细致和深入,论文整体的创新性不够突出。论文中的文献综述不够全面,分析不够透彻,论文撰写的规范性和逻辑性不高,排版比较凌乱,标点、格式、插图、文献引用等很不规范,语言表述不够流畅,需要认真修改和完善。,0,1,-1,-1,1,0,-1,-1,-1,0,0,-1,-1,0 +92,本论文综述了永磁同步电机的控制策略,建立了不同坐标系下永磁同步电机的数学模型。构建永磁同步电机直接转矩控制系统并进行仿真,对仿真结果进行了详细分析。引入空间电压矢量脉宽调制技术(SVPWM),将该方法应用到永磁同步电机直接转矩控制中。将无差拍预测控制与基于SVPWM 的直接转矩控制相结合,建立无差拍控制器,推导无差拍电压控制率,构建了闭环磁链观测器对磁链进行估计,在增强系统响应快速性的同时增强了系统运行的平稳性。在恒定开关频率下实现转矩和磁链的无差拍控制,减小了转矩和磁链脉动。采用电流和磁链观测器模型,确保对转矩的控制精度。 在MATLAB/Simulink 中搭建系统仿真模型对所提方法进行验证。 论文选题科学,探究内容较为丰富。本文针对面装式永磁同步电机(SPMSM)直接转矩控制系统中存在的转矩和磁链脉动大、低速时性能差等缺点,研究了一种基于 SVPWM 的永磁同步电机无差拍直接转矩控制的控制策略。研究具有一定新意,逻辑性也较强,文字及排版基本规范,反映该生具有较为扎实的基础理论,研究结果具有一定的工程参考价值,建议在文字处理上可以进一步规范和提高,同时建议加强实验研究。论文达到研究生毕业的要求,同意修改后答辩。,0,1,0,1,1,1,1,0,1,0,0,1,0,0 +1961,论文主要研究了大群体下的在线评价群决策方法问题,选题具有重要的理论和实际价值。 论文首先梳理了群决策问题的研究现状和涉及的相关理论方法,然后通过建立基准语言模糊集和二元语义对大众评价信息进行规范化,基于模糊互逆偏好关系对专家的评价信息进行规范化处理;然后通过离差最大化和熵的方法建立模型求取属性的客观权重;通过最小距离原则建立模型 求取属性的主观权重;通过结合乘法组合赋权和加法组合赋权求取属性的主客观综合权重,并由此计算出方案的综合评价值、它们的排序以及最优方案的选取。最后,设计了在线评价系统的原型演示系统。 论文结构合理、语言通顺、层次清楚,反映了作者已掌握本学科的基础理论和专门知识,具备独立从事科学研究的能力,论文已达到硕士学位论文水平,同意组织论文答辩。,0,1,0,0,1,1,0,1,1,0,0,0,0,0 +776,"业绩预告披露制度是一项重要的会计信息披露制度,其准确度收到很多因素的影响。因此,该选题有一定的实践价值。 本文以2013-2017 年沪深 A 股上市的公司为样本,实证分析了上市公司前期业绩预告准确度是否会对审计收费产生影响,以及高质量内部控制对两者关系的调节作用.研究发现,公司前期业绩预告准确度与当期审计费用呈显著负相关关系,而高质量的内部控制能够有效缓解这一负相关关系.进一步检验表明,内部控制质量在国有企业中不具有调节效应,在非国有企业中仍然具有显著的调节效应。论文结构合理,逻辑性较强,应用方法得当,写作规范。达到硕士论文的要求。",0,1,0,0,0,0,1,1,1,1,0,0,0,0 +2432,该论文对工程结构可靠性分析的基本理论和常用的可靠度计算方法的研究与发展情况进行了较详尽的介绍,在此基础上针对经典响应面法存在的精度不高、效率较低、算法不稳定的问题进行了研究,提出了四种改进响应面方法,包括基于交叉降阶取样的改进响应面方法、基于SQP算法的改进响应面方法、基于双权重和向量投影的改进混合响应面方法以及基于样本重用的全局响应面法,并通过相应的算例来验证各方法的有效性和合理性。该论文创新性较强,层次分明、文笔比较流畅,反映出作者具有比较扎实的基础理论知识和系统宽广的专业知识,该论文达到硕士学位论文水平,同意其参加论文答辩。论文不足之处如下:1、有个别地方有打字错误,比如封面论文提交日期打错;2、2.3.3节标题为“改进响应面法的计算步骤如下”不合适,建议去掉“如下”两个字;3、论文格式有待进一步规范。,0,0,0,0,1,0,-1,-1,1,0,0,1,0,0 +2669,"论文使用数据挖掘技术对青少年抑郁症的影响因素进行深入、透彻分析,确定影响抑郁状况的因素,并且根据影响因素建立对抑郁状况的预测模型。论文选题具有实际意义,研究结果具有一定的应用价值。研究方案和方法比较适当,研究内容比较准确。论文格式比较规范、结构比较合理、语言比较通顺、表述比较清楚,达到硕士学位论文水平。不足之处:1)第6、8、21、33页中出现的“Person”拼写错误;第27页至30页出现的""SMOT""应该为""SMOTE"".2)论文中有语句不通顺、表述不清楚的地方,请仔细通读全文修改语言表述问题。3)在第四章分析中,明确“性别”因素对抑郁状况有影响,文中提到“青少年女性中出现抑郁症状的概率是男性的1.497倍”。但是在第五章5.1.2特征选择中,在11个变量中只剔除掉“性别”变量,这与前面的分析矛盾,请解释合理性。",0,1,0,0,0,0,1,1,-1,1,1,1,0,0 +1817,论文以矿井皮带输送用低速、大功率永磁同步电机为研究对象,展开了详细的电机设计、散热、样机测试等工作。论文选题在有利于提高矿井皮带输送性能的同时降低成本,所研究内容具有一定的理论研究意义及工程实践应用价值。论文所采用的研究方法可靠,样机测试基本验证了所研究方法的可行性。论文的难易程度及工作量适中,论文体现出作者具备了一定的独立从事科学研究工作的能力。论文撰写规范性稍有欠缺,建议修改后直接答辩。,0,1,0,1,0,1,-1,0,0,1,0,1,0,0 +2990,选题符合专业培养目标,能够反映本学科的新问题、新理论、新方法。写作过程中能综合运用景观设计发展系统知识,全面分析当地植物文化的价值与开发再利用的系统问题,综合运用知识能力强。文章结构科学合理,文章观点表达准确,用词正确,语句通顺,思路清晰,层次结构安排科学,逻辑关系清楚,主要观点突出,有一定的个人见解。文题完全相符,论点突出,论述紧扣主题。不足之处:1.这部分内容没有进一步阐述,还处于“大纲”或者“标题”状态。如:P4(四)研究对象1广府植物文化与植物造景②带状滨水公园景观规划③岭南园林造景风格与设计手段2.有些标题内容后只是现状描述,缺少分析或者结论。如:P316.景观视线分析下文无分析。,0,0,0,0,0,0,0,1,1,0,0,0,0,0 +538,论文研究商业银行的作业成本法应用,选题具有一定的意义。 论文选取Z银行H分行为案例,论文研究了案例现有成本管理模式的不足和问题,包括成本分摊路径过长、间接费用分配方法不合理、待分配费用数据质量不高等;进而,设计了作业成本法在案例单位实施的基本流程和具体核算分析;论文最后对比分析了作业成本法和案例单位传统方法,以评价作业成本的优势和不足。 论文对案例单位进行了较为深入的调研,对案例单位资料数据掌握较好。案例研究目标清晰,结构层次分明,分析过程清晰、论证充分,资料详实。格式规范、行文流畅。反映作者较好本学科专业相关理论和专业知识,较好掌握应用专业理论和知识开展科学研究或解决实际问题的能力。论文尝试设计了作业成本的基本流程,具有一定贡献,对行业具有参考意义。 总体上达到硕士学位论文水平。,0,1,0,0,1,1,1,1,1,0,0,1,0,0 +1220,本文针对预防老人在步行过程中肌肉力不足而跌倒进行了研究,提出全向式助行拐杖机器人的控制方法,选题具有一定理论和实际应用价值。论文根据人体解剖学和人体动力学建立人体下肢肌肉骨骼模型,基于人体重心水平速度与迈步水平速度的对比提出了人体跌倒的判据,提出了全向式助行拐杖机器人的控制策略。论文撰写认真,条理清晰,结构安排合理、图文清晰,工作量适中。论文的成果对全向式助行拐杖机器人具有一定的参考价值。表明该生已掌握了本学科坚实的理论基础知识和系统的专业知识,具有一定的独立从事科学研究的能力,论文达到了硕士学位论文的要求。同意该生进行硕士学位论文答辩和申请学位。,0,1,0,1,1,1,0,0,1,0,0,1,0,0 +695,声学CT温度场检测技术是根据测量得到的有效穿越被测区域的各路径上的声波飞行时间和适当的重建算法,推算被测区域内的温度分布。重建算法对温度场重建质量有重要影响,因此本文重点研究声学CT温度场重建算法,具有较好的研究意义和实用价值。本文首先提出一种利用Markov径向基函数逼近和Kalman滤波的温度场重建算法(MKR算法)。该算法首先利用Markov径向基函数的线性组合,逼近被测区域内的声速分布,建立声学 CT 所对应的系统状态观测方程。而后,利用Kalman滤波由多路径声波飞行时间数据重建出声波分布。进而利用声速与温度的关系得到温度分布。然后,本文采用MKR、MTR和LSM算法对四种典型的三维模型温度场进行了无噪声和有噪声仿真数据重建。重建结果表明 MKR和MTR的重建质量均优于LSM算法,且MKR的重建质量最优。同时又采用热点位置不同的1000个单峰模型温度场对MKR和MTR算法进行了进一步的比较。重建结果再次验证了MKR的重建能力优于MTR,特别是在有噪声的情况下,其重建温度场更接近于真实温度场分布。本文章节安排合理,写作规范,内容真实,实验结果可靠,表明该生具备较好的独立解决问题的能力。,0,1,0,0,0,1,1,1,0,0,1,0,0,0 +2730,论文选题具有科学内涵意义和工程应用价值。论文提出问题,进行可行分析,开展合理研究,表明作者具有较好的研究思维。论文依据学科理论、实验设计与数据分析,得到可信的结果,表明作者能通过专业知识开展科学研究潜力。论文架构合理,写作层次清晰,逻辑性较好。通过依据评审意见进一步完善论文,可以进行论文答辩。存在问题和不足之处在于:(1)论文研究的具体应用背景缺乏充分的交待,特别体现在仿真实例上;(2)针对论文研究结果,如果还能开展一定的实验验证工作,那就更能证明研究结果;(3)作为控制学科与工程学科的学位论文,没有针对具体的应用对象,稍不留神就会倾向于理学的应用数学的纯理论研究;(4)进一步凝练论文的创新点和充分阐述论文工作量的体现。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +985,校园跑对超重大学生健康体适能影响该论文框架基本合理;整篇论文格式符合规范;论文字数教少,工作量不大;论文修改一些内容。该论文出现的问题,论文中出现的名词解释没有引用和参考文献;研究现状写作部分过于简单;梳理统计法进行说明是什么T 检验;表格需要规范以及表格里的显著符号位置需要修改;论文从主题角度考虑,实验的设计、控制和数据处理对文章的结论支持较弱,由于没有对照组和试验控制,基于事实讨论只能说明这些变化出现显著性差异可能是由于校园跑造引起的。,0,0,-1,-1,0,0,-1,-1,1,-1,0,0,0,0 +2450,该论文为基于真实翻译项目的实践报告,选题符合翻译专业硕士论文要求。论文以纽马克交际翻译理论为指导,分析了《汽车维修与维护技术指导手册》第六章翻译过程中翻译技巧的运用,具有一定的理论价值和实际意义。论文结构总体合理,理论适用,实例丰富,分析到位,语言流畅,不足之处如下:1.关键词按文本名称、翻译理论、翻译技巧的顺序排列;2.第一章标题改为“Introduction”,无需分小节;3.第二章标题改为“TranslationProcess”,并增加“ProjectDescription”,为2.1;4.2.3标题改为Proofreading,无需分小节;5.译文质量应有评估,建议增加一章论述,置于结论前。6.参考文献应与正文中实际引用的条目对应,去掉未引用的文献,并补上已引用的条目。综上所述,该论文已达到翻译专业硕士论文水平,建议修改后参加答辩。,0,1,0,1,0,0,-1,1,1,0,0,0,0,0 +200,电阻层析成像(ERT)传感器作为整个系统链接被测物场的第一部分,其结构参数对敏感场特性以及整个ERT 系统性能有重要影响,本文通过研究传感器结构参数对ERT系统的影响及传感器的优化设计,以期提高敏感场的均匀性、降低灵敏度矩阵的病态性,具有较好的研究意义和实用价值。本论文首先在空场和非空场两种情况下,研究了常用的细化、较细化、特别细化和极其细化四种网格剖分方式对电压响应值的影响,确定了特别细化为最优网格剖分方式。然后,仿真计算了以钛、银等9 种金属做为电极材料时所对应的传感器性能指标,数据分析表明电极材料对敏感场均匀性、灵敏度矩阵条件数和电压响应值的影响很小,可以忽略不计。其次,通过有限元仿真计算,研究了电极长度、宽度对传感器性能指标的影响,结合现有的ERT 硬件系统,确定了电极的长、宽取值范围。最后,以电极的长度和宽度作为传感器的待优化参数,提出一种RBF 神经网络与遗传算法相结合的传感器参数优化方法。优化后的传感器在综合评价指标、重建图像的视觉效果以及重建图像误差上,均有明显改善。本文章节安排合理,写作规范,内容真实,实验结果可靠,表明该生具备较好的独立解决问题的能力。,0,1,0,0,0,1,1,1,0,0,1,0,0,0 +321,该文针对七自由度智能假臂展开研究,针对本研究智能假臂的机械结构特点,结合智能假臂运动学知识,建立智能假臂的运动学模型。引入标准 D-H 模型,为每个关节建立一个本地参考坐标系,得到智能假臂的 D-H 参数。根据智能假臂相邻连杆间的一般变换矩阵,可推导出智能假臂的正运动学方程,从而解决已知智能假臂的各个关节角度,求解智能假臂的末端位姿矩阵的问题。提出位置姿态分步求解的方法,求出智能假臂的运动学逆解。采用 RRT 算法是一种改进的 RRT 算法,在传统 RRT 算法的基础上添加目标引导分类算法,使得轨迹节点在高维空间中快速向目标点扩展,当遇到障碍物时,根据本研究智能假臂构型特点,采用高效的碰撞检测方法对障碍物距离进行判定,并使用轨迹优化方法平滑的绕过障碍物。能够很好的避免碰撞的发生,并且可以快速的规划出一条无碰路径,这种规划思路更加适合用在智能假臂的搬运场景。 实现了基于 RRT 算法的智能假臂路径规划,实现智能假臂的安全性、准确性和智能化。 该文的研究对发展我国智能机器人具有一定的意义,研究成果具有一定的参考价值。显示该生掌握了较雄厚的基础理论知识。具有一定的科研能力。达到了工学硕士的水平。修该后可以靠可以考虑进行答辩。 该文立论正确,论述有据,逻辑清晰,章节安排合理,图表符合工程要求。,0,1,0,0,1,1,0,0,0,0,0,1,0,0 +379,论文《离轴式激光切割特性试验研究》的选题有工程应用背景和科学研究的意义。作者通过对国内外与该选题相关的领域发展现状的论著和文献的收集、归纳和综合分析,明确了论文所要解决问题的目的及意义,研究方向明确。但文献综述中缺乏核心内容:离轴量对切割特性的影响方面的资料。 论文完成了以下工作:建立了适用于氧助激光切割的能量模型和流体动力学模型,建立勒离轴激光切割的有限元模型;应用这些模型进行了离轴量与相关工艺参数的关系研究,并与切割试验的结果进行对比分析;完成了离轴式激光切割工艺参数对切割质量影响的单因素试验,分别研究了离轴量、切割速度、辅助气压、激光功率对切割质量的影响规律; 完成了离轴式激光切割工艺参数对切割质量影响的正交试验。作者做了大量有效的工作。论文的研究成果有实用价值,论文难易适当。 论文的分析和研究工作所涉及的内容反映作者掌握了相关学科的专业知识,具有了基本的从事科研工作的基础。 论文写作条理比较清楚,分析较严谨,逻辑性强,论文写作基本符合规范性。,0,0,0,0,1,1,1,1,1,0,0,0,0,0 +1714,论文选题具有一定的理论意义和较强的现实意义,文章对我国夫妻共同债务的认定及承担进行了研究,分析了我国现行立法在夫妻共同债务的认定及承担方面存在的不足,运用比较研究的方法,借鉴国外相关立法经验,提出完善我国夫妻债务认定及承担制度的立法建议,对完善我国婚姻家庭法律制度中夫妻共同债务的法律制度有一定的参考价值。论文对国内有关夫妻共同债务法律制度的学术研究动态梳理较为全面,对所涉学科领域前沿知识以及本专业理论和制度较为了解,对文献资料的掌握及综述能力较强,体现了较为扎实的基础理论和专业知识水平,有一定的发现、分析、解决问题的能力,文章概念较清晰,写作较规范,行文较流畅。 但文章亦存在一些不足,首先从选题来看,民法典刚刚施行,制度运行时间不长,可能很多问题还没有在实践中反映出来,研究的实践依据不够充分;其次,文章比较了很多国外的制度,提到国外有清晰而细致的规范,但文章对这一特点并未详细展示;再次,文章在文献综述部分对国外的研究现状研究不够;最后,文章还存在一些表达不严谨、不明确、不通顺等问题,如P2“随着夫妻共同债务立法中工作不断推进”P13“2017 年,《婚姻法司法解释(二)的补充规定》在第 24 条的基础上增加了两条规定,分别是举债人与债权人通过串通来虚构债务以及债务人从事违法犯罪所负的债务,此举”P14标题“3.3 我国夫妻共同债务现存不足”“夫妻共同债务现存不足”P16“由债权人承担举证责任夫妻共同承担清偿债务的责任,”p24“其配偶的真实意思表示无法得到确认,但不能将其认定为夫妻基于合意与债权人缔结的夫妻共同债务。”等。 纵观全文,论文达到硕士学位论文水平,同意参加答辩。,0,1,-1,0,1,1,1,1,-1,0,0,0,0,0 +1125,本文从应用方向中挑选出两种具有技术代表性的器件,分析了系统光源、待检测目标、光电感受器、信号干扰等信息。设计、制备了有针对性、适应性的滤光器件以更好的实现信号光的提取,并进行了相关测试分析。论文选题具有一定的实际意义,工作量适中,论文思路较为清晰,对学科知识掌握较好,具有一定的独立工作的能力,论文创新点一般,写作的规范性和逻辑性有待加强。,0,1,0,0,1,1,-1,0,-1,0,0,-1,0,0 +2475,该论文研究了水力空化处理大豆分离蛋白(SPI)凝胶的质构特性、持水性、流变学性质、分子间作用力、微观结构和二级结构的变化,揭示了其影响规律和机理。论文具有良好的学术意义和实用价值,作者较好掌握了相关学科领域发展状况和学术动态。论文研究方法科学,采用自制实验装置和较为先进的测试分析方法;结果数据详实可靠、分析讨论充分;论文撰写规范合理,文字表达较准确,逻辑较严密,书写格式及图表规范;引文较规范,学风严谨。论文具有较好创新性和较好实际价值,对相关技术进步有积极作用。论文已达到硕士学位论文水平。论文存在如下需改进之处,个别地方空白太大,有少数文献引用不规范,如[61]、[62]、[63]和[90]等。,0,0,0,0,1,0,1,1,1,0,0,1,0,1 +2324,本文通过外源添加苯甲酸和丁香醛探究了它们对酿酒酵母细胞生长的毒害机理,并通过转录组学测序解析了苯甲酸和丁香醛胁迫下酿酒酵母的响应机制。通过对酿酒酵母在苯甲酸和丁香醛胁迫下的差异表达基因进行筛选,得到了共同差异表达的基因。总体说来,本文的研究具有一定的理论和实用价值,论文工作量饱满,行文总体规范,达到硕士论文要求。建议对论文排版进行检查,部分表格可以通过排版放到一页上,如表4-10,4-11等。此外,如果可能,对本文的章节引言进行修改撰写,引言写的太少,没有阐述清楚为什么做?已经存在的研究进展如何?建议修改后答辩。,0,0,0,1,0,0,1,0,0,0,0,0,0,0 +535,论文研究了中央空调的多目标优化问题,选题具有一定的学术价值和较强的应用前景。论文介绍了中央空调系统的工作原理,建立了多目标优化的模型,提出了改进的多目标粒子群优化算法,实现了中央空调的多目标优化问题。论文反映出作者阅读了与本课题相关的大量文献,了解本领域的学术动态,具有较扎实的基础理论及专业基础,较强的分析问题及解决问题的能力。论文条理清楚,概念清晰,结论合理,撰写规范,具有一定创新性,达到了硕士学位水平,同意答辩。,0,1,1,0,1,1,1,1,0,0,1,1,0,0 +993,"针对前一版本提出的问题,作者做了认真的修改,特别是第三章和第四章的实验对比和参考文献方面。修改后的论文实验对比合理,资料引证、作者论证、文字、图表的准确和规范。当前,该论文还有如下不足: 1.第三章偏好属性和偏好种类需描述清楚; 2.图表的排版需注意,如图3-3 出现在第20页,但对图3-3的描述出现在第21页; 3.第三页文献作者的名字格式需统一,如 Liu, Bo 和 Ding Z; 4.文献引用要注意,如4.4.1节第一段需有对蚁群算法的文献引用。 ",0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +607,论文针对电力变压器,对其剩磁计算方法进行了研究,选题具有较好的理论研究和应用价值。 论文研究了电力变压器截流产生的原因,并搭建了等效模型。推导了磁密为输入、磁场强度为输出的静态铁芯磁滞模型,验证了辨识结果的正确性。 论文搭建了基于爱泼斯坦的磁特性测试平台,对磁密和磁滞曲线进行了测量;并验证了剩磁估测结果的准确性。 论文写作认真,态度严谨科学,语言流畅、图表规范,工作量饱满,完成质量较好,达到硕士论文要求,反映出作者已掌握了本学科的基础理论与专门知识,具有独立从事科研工作能力。 同意其进行论文答辩。,0,1,0,1,1,1,1,1,0,0,1,0,0,1 +2, 论文开展了磷酸辛酯的绿色合成及性能研究,选题具有工业应用前景。  论文以磷酸三乙酯和异辛醇为原料,在碱性催化剂作用下,通过酯交换反应合成磷酸三异辛酯;以磷酸三异辛酯为原料,在相转移催化剂作用下,经过水解反应合成磷酸二异辛酯;以五氧化二磷为原料,先将五氧化二磷部分水解后与异辛醇进行酯化反应、反应产物进一步水解工艺方法合成磷酸单异辛酯。研究结果表明,三种磷酸异辛酯的合成方法工艺简单可控,收率和纯度都相对较高。  论文有一定的工作量,论据比较充分可靠,实验数据可信,结论可靠,表明作者有一定的科研工作能力;论文写作条理清晰、逻辑性强,文字表达比较流畅,表明作者具有较好的基础理论和扎实的专业基础知识。该研究结果为该工艺的进一步研究提供了具有参考价值的基础数据。  论文已经达到申请硕士学位学术水平,同意修改后组织论文答辩。,0,0,0,1,1,1,0,1,1,0,1,0,0,0 +35,1.针对触头旋转开断对直流空气电弧影响规律的研究,论文提出直线+旋转运动的触头开断方案,有一定的理论意义和实用价值。 2.以磁流体动力学理论(MHD)为基础,建立了三维直流空气电弧的数学模型,得到了较优化的开断方案,并进行了实验验证,对同行有一定借鉴意义。 3.论文写作中章节的名称和章节之间的过渡有所欠缺,从字面来看第三章和第四章其实讲的是一类问题,建议将第三章题目改一改。,0,1,0,0,0,0,0,-1,0,1,0,0,0,0 +2267,"本论文是一个汉英翻译实践项目报告。原作介绍一种矿山机械设备,属于科技类著作。将该著作翻译为英语具有科技及经济意义。作者以纽马克的交际翻译理论为指导,对翻译实践进行分析,介绍了省译法、加注法等多方翻译方法,理论选择恰当,对实践的分析能比较密切地和理论结合。论文语言流畅,语义清楚,语病较少,表现出扎实的英语写作功底。论文结构完整,格式美观,条理清楚,主次分明。论文存在的问题有:1.目录4.1.1中,“OmissionofUnnecessaryCategorywords”,unnecessary一词可以省去,因为“omission”已经含有“这些范畴词是不必要的”的含义了;4.1.2中的“unnecessary”应作同样处理。4.1.3的“professionterms”,“profession”可以省去。4.2.1中,小标题“TurnPassiveSentencesintoPassiveSentences”有笔误。2.一些译文不准确或有语病。例如,“Example3”,原文的“存在着……和……等问题”,属于不穷尽列举,译文不能给人“只有这两个问题”的印象;“Example7”,译文中的that从句结构不完整;“Example9”,译文中的“isequippedwith”意思错误。3.文中少量英语表达有误。例如,第14页中,“isexpressedtheproblemsof…”有语病。4.参考文献第9条,“France:Atlantispress”,“France”应换为城市名。从总体看,本论文达到了硕士学位论文水平。",0,1,0,0,0,1,1,1,1,0,0,0,0,0 +1700,论文选题对提高PMLSM在受到不确定性因素影响时的控制精度和控制鲁棒性具有很好的理论意义、也具有很好技术经济价值。该生对课题相关国内外研究现状进行了较深入调研、总结,较清楚地论述了所要解决的问题及其意义。论文设计了基于动态面反推控制的PMLSM控制系统、在动态面反推控制器的基础上加入智能控制,设计了PMLSM智能动态面反推控制系统,进行了仿真研究和对比分析,论述正确、分析科学、结论合理,论文工作有一定难度和足够工作量,所得结果具有一定借鉴价值。反映该生具有较好的专业理论知识和一定从事科学研究的能力。论文撰写较为规范,结构合理。,0,1,1,1,0,1,1,0,1,0,0,1,0,0 +1848,论文应用背景为采用同步发电机进相运行来解决电力系统无功问题,非常具有工程应用价值,选题合理,可以很好的解决电力系统中目前采用电力电子设备来解决无功问题造成的工程造价高等问题,对电力经济运行具有一定的意义。 论文对国内外的研究现状进行了综述分析,能反映出一些国内外的研究现状,但在最新的研究成果方面,涉及的文献不多。在针对进相运行这种较为传统的研究方向来说,应该关注老问题的新的解决手段和措施。 研究成果的的科学价值和工程应用价值较为普通,反映出作者在针对一个具体工程问题的基本问题提炼和归纳、学术问题的提炼和理论体系建立方面还尚需很多提升。论文的撰写方面,语言表达和概念性的一些区分应该更加明晰。 论文的规范性较差,在文章的结构合理性上也存在明显的问题。需要对论文进行较大的修改和内容的增加,方符合硕士学位论文的专业性、工程应用价值等毕业要求。在整体工作量和内容上存在较大欠缺,所发表的学术论文与本论文的关系较为不密切且学术价值较低。建议对论文进行较大幅度的章节内容增加、修改和梳理,以满足沈阳工业大学电气工程专业的硕士毕业论文要求。 综上原因,不建议本论文参加答辩。,0,1,-1,-1,0,0,-1,-1,-1,0,0,-1,0,0 +2314,"本文通过采用多期超额收益法结合层次分析法和综合模糊评价法建立了对公司的数据资产价值评估模型,以阿里巴巴公司为例对其进行了数据的资产价值评估,得出了阿里大数据资产的市场价格,并对评估结论加以了部分证实分析研究。论文的选题较新颖,研究结果对中国企业的数据资产价值评估方式是一次有意义的探讨。论文存的不足之处,主要集中在写作的规范性,在文中多次出现错别字,比如:在目录中,第二章,二、(一)从数据资产本身“就""角度分析;19页公式(3-1)公式写成“公”示如下。每个段落开始应该空两格;论文的参考文献排列较乱,建议按国内参考文献和国外参考文献分别按顺序列出。",0,1,0,0,0,0,-1,0,0,0,0,1,0,0 +2483,该论文以车载动力型INR18650锂离子电池单体为研究目标对象,采用理论和仿真相结合的方式对电池的多个参数与状态的预测估算进行了重点研究。通通过对电池模型的分析,建立了能够准确描述电池外部电压特性与内部阻抗特性的等效电路模型,分析了在不同倍率循环脉冲放电实验下的参数辨识的差异,并仿真验证了算法的有效性和优越性。1、论文选题来源于本领域工程实际,具有明确的工程应用背景,命题具有实用性和较高的工程应用前景;2、论文提出的新方法所具有一定的理论意义和实用价值;3、论文反映出作者已掌握了本领域科学研究所需的基础理论、专业知识、基本研究方法和技能;4、引文较规范,学风严谨,论文语言表达准确、逻辑严密性、书写格式及图表较规范;5、论文达到硕士学位论文水平,同意组织答辩。建议:1、文中部分图可以适当放大,如图5-5、5-6、5-8、5-9等;2、请全篇再核对文字、标点、标号等细节错误,如摘要第三段末应该是句号;参考文献14后的句号重复;第37页用1、2作文中序号也不妥。,0,1,0,0,1,0,0,-1,1,0,0,0,0,0 +833,作者对用户特征与设备特征的角度对笔多通道输入性能产生影响的因素与应用等问题展开研究,选题具有较好应用价值。 作者对国内外用户特征与设备特征的相关研究进行了较为全面的文献调查,在此基础上,通过实验对笔的多通道输入的速度性能、准确度性能以及精确度性能等指标进行考察,探索设备受限于非受限环境下的用户特征、以及面向笔输入的人机交互相关性等问题展开了较为全面系统的实验研究,并讨论了研究结果的实际应用问题。 论文结构清晰合理,资料充实,试验数据准确,写作规范。表明作者具备很好的相关基础知识和很强的分析解决问题的能力。,0,1,1,0,1,1,1,0,0,0,1,0,0,0 +2139,针对传统的低压电器无法满足智能电网建设的实际需求,作者研究以智能控制器作为控制与保护开关的核心器件实现低压电器的智能化问题,选题具有较好的工程实际应用价值。 论文本文对控制与保护开关的保护功能、电流含有谐波成分的情况下电流真有效值的测量方法、PROFIBUS 现场总线进行了研究。进行了以 STM32F407ZGT6 为核心的智能控制器设计。论文写作文字图表较清晰,反映出该生对本学科及相关领域的研究成果有一定的了解,具有一定的解决实际问题的能力。,0,1,0,0,0,1,1,0,0,0,0,0,0,0 +524,论文研究了大型风力发电机机噪声振动信号识别问题,具有应用价值。作者综述了国内外相关研究文献,分析研究了其机械噪声主要来源,建立了齿轮和轴承的振动信号模型,采用基于 ICA 的方法对风力机混合信号进行预处理,采用 EMD 对原始混合信号进行分解,得出各频段的强干扰信号。在仿真基础上,对齿轮箱的振动信号实测分析,识别出了由齿轮磨损产生的噪声信号,验证了方法的可行性。 论文结构合理,写作规范。,0,1,1,0,0,0,1,1,0,1,0,0,0,0 +2413,达到硕士学位论文水平。1.样本数据为何选取2013.12.31-2020.12.31,建议说明原因。另外,前面有关企业价值评估的影响因素的数据分析有从2014年分析开始的,也有从2016年开始的,建议数据分析与后面实证分析的数据样本选取时间段保持一致,若无法保持一致,说明原因。2.论文实证分析中,忽略了影响人工智能企业价值的外部因素,这与前文所分析的价值影响因素没有呼应起来,若无法计量分析,建议在论文选取变量时说明。,0,0,0,0,0,0,0,0,0,-1,0,0,0,0 +2695,论文选取龙湖集团作为案例分析对象,从财务层次与战略层次分析企业经营现状,利用传统EVA模型计算企业价值后,用改进后的EVA模型计算企业综合价值,选题符合专业培养目标的要求。论文研究资料运用比较合理,论证基本充分,研究成果对实践有一定指导意义。有以下问题请思考:1.论文题目不是很通顺,建议修改为:EVA改进模型在房地产企业价值评估中的应用研究2.文献综述建议按照主要研究内容和观点进行归纳和梳理。3.论文第二章相关理论及理论基础,建议修改为:相关概念及理论基础4.第四章中的三、四、五与二的逻辑关系不清。5.论文规范性需要进一步提高。论文多处标点符号有误、语句不通顺的地方较多,比如P2。P8界定企业价值内涵时,企业利益、企业价值混用。P21讨论商誉调整时,对商誉的实质不理解,语句不通顺且存在错误表述;讨论递延所得税时,仍然停留在时间性差异概念上……这样的错误太多。,-1,0,0,0,0,0,-1,0,0,0,0,1,0,0 +2619,论文的主要内容是对数控机床主轴在加工过程中受主轴温度变化导致的轴向热误差对零件加工精度的影响进行了分析,以数控铣床CY-KX630为研究对象,以测温点选择及数据优化的方式简化热误差模型建立为目的,实现热误差补偿的最终目标。该论文撰写相对规范,结构合理,思路较清晰,文献综述部分本文的综述较为系统全面,反映了作者对相关领域具有较为深入的了解,达到硕士学位论文水平。但是,尚存在一些不足,需要完善和补充。(1)选题有明确的工程价值,但文中部分实验数据缺乏准确性。例如,文2.4中在数控机床主轴温度测量中,除了改变水温多次测量之外,建议数据参数取平均值,增加数据稳定性,减少偶然性。(2)节3.2中对测温点的选择缺乏可靠性数据支撑,且图3-7中部分箭头指示位置模糊,建议重新标识。(3)没有给出研究创新点。(4)文中出现格式错误:1)英文摘要中已取得的研究成果未用被动语法,语言过于汉化,需认真修改和提高;2)摘要只需首字母大写,并加粗;3)目录中不应出现“目录”;4)所有公式序号中括号不一致,注意中英文括号差别;5)部分图序号未居中对齐;6)部分公式未居中;7)参考文献4、21格式错误。(5)语言需要进一步规范,且摘要尚需进一步凝练。论文反映作者具备一定的科研能力,基本掌握了本专业基础理论和专业知识,建议对论文修改后参加答辩。,0,1,1,0,1,1,-1,-1,1,0,-1,0,0,0 +1448,该文以“并购财务风险防控”为研究主题,采用个案分析、问卷调查方法,详细分析并购过程中的财务风险,从并购的准备阶段、实施阶段和整合阶段3个层面构建了CG公司并购财务风险指标体系,并进行并购财务风险评价,进而有针对性地提出了并购财务风险管控对策。选题具有较好的实践价值,为混改背景下的企业并购财务风险防范提供了一定的经验借鉴。全文结构较合理,层次较分明,逻辑性较强;研究方法较合理,结果分析较合理;相关对策较正确,且具有一定的个人见解;行文较流畅,表述较清晰。,0,1,0,0,0,0,0,1,1,1,1,0,0,0 +2676,论文提出一种基于双目视觉的路障检测与识别算法,具备对路障检测识别和测量距离的功能。论文已达到硕士学位论文水平,但存在以下问题:1、部分参考文献陈旧,无人驾驶环境感知发展迅速,希望多引用近三年文献。2、图3-1Resblock_body模块结构在正文中没有引用。3、第3章中结构图较多,部分结构图中英文缩写较多,图中没有中文说明,正文中也没有介绍,理解困难。如图3-1中的CBM,Conv,BN等4、现实生活中道路上的障碍物一般都是实时运动的,本文中仿真均采用静止障碍物,可进一步实验,以说明该系统的稳定性和可靠性。,0,0,-1,0,0,0,-1,0,0,0,0,0,0,0 +107,本文对图像与数据融合的抓取机构控制系统进行了研究,综述了国内外相关领域研究现状和发展方向,选题正确,将机器视觉应用到智能电视装配生产线中实现自动检测定位,设计了单目自适应抓取机器人总体方案,分别对直角坐标机器人、自适应机械手传动结构、伺服驱动系统设计选型,确定工业相机安装位置和定焦拍摄方式,并对机器视觉硬件系统计算选型,分析计算相机镜头内外参数进行畸变标定,提出了一种图像和位置数据融合的混合视觉伺服控制策略,将图像的二维数据输入控制器改变机械手抓取姿态,通过机器人控制器中绝对坐标系把图像二维坐标转换成直角坐标机器人三维坐标,实现机器人自适应抓取,对直角坐标机器人的Z轴点到点运动做S型曲线规划,对X轴、Y轴折线运动轨迹做三次B样条曲线平滑处理,搭建自适应抓取实验平台,设计上位机软件与PLC和工业相机通信,针对图像误差设计了一种基于标准模板中心参数值与增量误差值求差的误差补偿方法提高抓取精度,并对所设计的自适应抓取机器人实验平台进行综合实验分析。论文结构严谨,写作规范,叙述清晰,符合工学硕士学位论文撰写要求。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2727,论文选题具有较好的应用价值,在基于卷积神经网络(CNNs)的深度学习算法应用于轮廓检测任务方面进行了研究,综述了目前国内外的研究现状,提出了自己的算法,取得了一定的成果。论文写作结构合理、层次分明、逻辑严谨、文字通顺,格式规范,反映作者掌握了一定的理论基础和相关知识,具有一定的分析问题解决问题的能力。论文达到硕士学位论文水平,同意答辩。主要不足之处是文中(第三章)提到“本文使用已经在ImageNet预训练好的VGG16模型来初始化本文的网络。”而在小结中“本文从生物视觉出发,摒弃了经典VGG16结构,模拟视觉神经机制中“what”通路的信息传递方向搭建全新的编码网络结构,并模拟V4区的特征整合功能设计解码网络”,但自己设计的网络结构和VGG16不同,没有说明是如何初始化自己的网络的?,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +198,电力电子变压器属于近年来研究比较热门的一个领域,与传统变压器相比,在体积和效率等方面有一定的优势。作者进行了能源路由器中固态变压器的参数设计与仿真分析,选题具有一定的理论研究和工程实践价值。本文的主要研究成果有:1、对固态变压器的原理和拓扑结构进行了分析;2、对固态变压器整流级、隔离级、逆变级进行了研究,并进行了主电路参数的设计;3、建立了固态变压器主电路的仿真模型,并在此基础上搭建了10kW的固态变压器试验样机,并对各电能变换环节进行了相关实验。本文可以看出作者阅读了大量的文献,整体上书写规范、条理清晰,表明作者掌握了电气工程领域的基础和专门的知识,具有一定的从事科学研究工作的能力,是一篇合格的硕士论文。,0,1,1,0,1,1,1,1,0,0,0,0,0,0 +2834,论文以儿科护理人员为研究对象,利用个案工作缓解其职业倦怠问题,依托理性情绪疗法和社会支持理论对其情绪进行干预,选题具有一定的理论和现实意义,选取研究方法正确,整体结构框架完整,文字流畅,介入过程介绍详细,格式规范,展现了作者一定的独立研究能力,能达到硕士学位论文的水平。建议:13页接案为“结案”;职业倦怠状况的研究分析不足,不能展现职业倦怠的问题与表现,数据也未明确显示是否为有倦怠的护理人员,且简单的描述性分析不能得出现有相关结论;访谈内容罗列过多,不能突出重点的方法、技巧和对问题的解决;文中将自我价值感划定三个维度,但行文中并未提及各方面的测量、介入和评估结果;为何只突出非正式社会支持需要作出说明,与主要理论基础主旨不符。,0,1,0,0,0,1,0,1,0,0,0,0,0,0 +652,论文主要开展基于深度学习的文本分类研究,选题具有一定的实际意义。论文的主要工作包括:首先,构建了了基于 LSTM 循环神经网络模型的文本主题分类模型,并应用于新闻主题分类;其次,构建了基于 fastText 神经网络模型训练情感分析模型,并通过了实验验证;最后,利用bagging集成学习方法进行文本情感的分析,同样设计实验进行了验证。然而,作者所提出的模型未能与现有的其他较为前沿的模型或者方法进行对比,因此所提方法的有效性较难以令人信服。综上,论文所做的工作具有一定的创新性,基本达到了硕士学位论文的学术水平,同意修改后参加答辩。,0,1,0,0,0,0,0,0,0,-1,0,1,0,0 +2940,数据资产评估不仅是数字经济体系的重要构成,也是资产评估业务中的前沿性业务类型。无论是在理论界还是实务届,都有较好的探索。该文以商业银行数据资产为评估对象,有一定的特色性。选题是当前的前沿选题,有重要的理论和实践价值。从研究过程来看,研究范式规范,方法正确,思路清晰,达到了学位论文写作的基本要求和学位授予的标准。但存在以下几个方面的内容需要进一步完善:一是摘要部分重点体现研究结论,至于研究背景和研究思路之类的内容可以简写。二是国内外数据资产评估方法研究综述可以进行相应的整合,现在的内容有点杂乱。可以将国内外学者按观点进行归纳和总结进行综述。三是既然本文评估的是商业银行的数据资产价值,因此,除了说明商业银行数据资产所具有的一般性特征外,还需要说明商业银行数据资产所具有的异质性特征。四是p16最后一段少了一个句号。五是利润调节系数的打分依据需要给与充分说明,请的是哪些专家?分布特征是什么?打分的依据是什么?六是P30最后一个公式没有标号。七是评估出来的光大银行数据资产价值是否有科学性?这里需要进行相关的说明。八是参考文献引用不规范。需要进行优化。,0,1,0,0,0,0,-1,-1,1,0,-1,0,0,0 +2128,在企业生产活动中,生产调度计划与设备预防性维护综合考虑,可以避免设备故障导致的生产停滞,减少因设备意外故障停机而增加的劳动力成本和维修费用,有效地提高企业的竞争力。该同学的硕士学位论文“考虑不同类型预防性维护的两台并行机调度问题研究”,以两台采用不同维护方式的设备排产为研究背景,研究了并行机调度问题,具有重要的理论价值和实用价值。 该论文在参考了大量国内外相关技术资料的基础上,提出了改进的人工鱼群(AFSA-C)算法,将步长与海明距离相集合,根据人工鱼之间的状态差距动态改变。结果表明,AFSA-C在实际应用中是有效的。 论文内容丰富,结构清晰,论述清楚,观点正确,图表等格式规范。以上工作表明,该同学掌握本领域的理论基础和系统的专门知识,有独立科研能力,能够理论联系实际解决实际问题,很好地完成了论文工作,所提交的论文已达到硕士论文水平,同意参加硕士论文答辩。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +497,论文选题新颖,具有较大的实用价值。进行了钛合金机匣静载试验和玻璃纤维增强树脂基复合材料的拉伸实验,采用声发射技术获取不同损伤过程的声发射信号,并分别结合金属和复材料的损伤机理进行了声发射参数分析。为了对服役中设备材料进行实时智能监测,引入深度学习方法,介绍了基于深度信念网络的材料损伤阶段识别方法。 论文研究工作表明,作者扎实掌握了本学科的基础理论和专门知识,科研动手能力较强。论文结构合理,论述清晰,图表规范。已达到国家学位条例对硕士学位论文的要求,推荐其进行毕业答辩,并建议授予硕士学位。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1675,论文提出并设计了笔式人机交互界面的动态重排机制和新型多目标选择技术Dynamic Rubik's Cube,分析比较了Circling、Crossing、Dynamic Rubik's Cube、Rubber Band 3种不同笔式交互界面上4 种多目标选择技术的选择性能。结果表明,通过目标属性集筛选和随机目标的出现,Crossing 在多属性动态重排界面上的综合性能最好。本文的研究为面向笔式界面的多目标选择技术提供参考依据。论文选题对于笔式人交互图形界面设计具有重要的应用意义。论文写作规范,条例清楚,逻辑合理。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +580,论文以研究凯撒文化进行跨行业并购为基点,从理论的角度对企业进行并购的价值创造进行了分析,研究其意义和影响。结合实际案例分析了凯撒文化系列并购的过程,并对凯撒文化并购价值创造进行了详细的论述。总体来说,论文选题具有一定的实践意义,结构也较为合理,格式较为规范,作者对相关专业知识的掌握程度较高,具备一定的科研和学术能力。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2393,本文旨在改进超额收益法对数据资产进行评估,选题较为新颖且符合我国经济发展趋势,但是本文存在很大的问题,达不到硕士论文的水平。1、本文有大量的错别字和病句,摘要部分病句甚至超过了语句通顺的部分。2、作者没有把握好基本的论文书写结构,研究背景深度不够,体现不出我国数字经济发展现状和数字经济的重要性;研究意义写作不规范,应当区分实践意义和理论意义;国内外文献综述部分应当将国内文献和国外文献按照一定的逻辑结合起来写作;研究思路与内容部分缺乏研究框架图;作者分不清论文的研究方法与理论基础;概念界定与理论基础部分内容太多,有凑字数嫌疑,应当将重点放到方法的改进和案例的应用上面;每章均缺少小结。3、作者并不了解数字资产最新的研究方法,譬如普华永道提出的数据资产势能模型等。在对评估方法的改进中,仅仅通过添加系数K来完成,其科学性有待验证。4、通过差额来计算企业数据资产价值并不科学,因为能进行剥离的只有有形资产和可辨识的无形资产,不可辨识的无形资产如商誉的价值是不能剥离出来的,这使得计算结算分不清到底是数字资产带来的价值还是其他部分带来的价值。本文直接将表外无形资产进行了剔除,这种做法不合理。5、对收益期限、折现率、未来预期收益等关键指标的得出描述模糊,如何对偿债能力、收益能力、发展能力的分析和资本结构调节,得出收益期的?用SPSS对企业自由现金流预测的具体步骤是什么?函数方程是如何得出的?折现率的确定仅仅选取了两家企业,样本量太小,是否具有代表性呢?为什么选择层次分析法和模糊综合评价法进行系数修正呢?6、建议对本文改进的模型的适用性进行说明。7、参考文献质量不高,表明作者对该领域相关的知识掌握并不透彻,尤其是数据资产。,0,1,-1,0,0,0,-1,0,0,-1,0,0,0,0 +436,论文基于一种改进的直流局部放电模型研究覆冰绝缘子的电气特性,选题具有理论及实用价值,论文所做主要工作如下: 1)基于局部放电模型,提出了一种直流改进算法,计算与实验验证了算法的准确性; 2)分析了不同覆冰条件下,有效爬电距离对绝缘子闪络电压的影响,得出了导致闪络电压变化的主要原因; 3)改进了某型号绝缘子的伞裙结构,相应计算表明了改进结构的有效性。 论文说理清楚,写作规范,逻辑性较好,具有一定的创新性,表明了作者在电气工程学科领域具有了一定的学科知识,可以申请答辩。,0,1,0,0,1,0,1,0,1,0,0,1,0,0 +682,全文在文献梳理与国内外案例研究的基础上建立研究框架,并利用数据分析对快牛金科集团风险控制体系进行优化设计,选题具有一定现实意义。该文通过研究国外 P2P 诞生的起源以及背景,为国内 P2P 行业引入绘制未来发展蓝图;用一系列的数据描绘了 P2P 行业在国内的变迁,以快牛金科为例具体分析快牛金科的运营体系和基础的风控体系,在评估我国现阶段 P2P 网络信贷风险的条件下,提出了适合我国金融行业发展情况的风险控制方式。研究方法规范,条理清晰,体现作者对独立完成科研的能力,同意参加硕士论文答辩。,0,1,0,0,0,1,0,0,1,1,0,0,0,0 +1837,论文以碳化硅陶瓷为研究对象,开展碳化硅陶瓷磨削过程中的动态力学性能研究。通过从金刚石砂轮工作表面单颗磨粒取样、观测建模、砂轮表面形貌检测、金刚石砂轮局部形貌建模进行有限元仿真,同时搭建磨削实验平台对 SiC 陶瓷磨 削有限元模型进行验证。分析了磨削过程中损伤演化和扩展规律,从而对碳化硅陶瓷磨削机理进行研究。论文选题有实际意义,有一定的社会经济价值,论文格式较规范。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +2098,永磁同步电动机因其具有效率高、稳定性好等优点被越来越多地应用于工业生产中,变频驱动永磁同步电动机控制系统中存在产生附加谐波损耗的电流时间谐波,本文从时间谐波分布、谐波损耗抑制措施等方面进行研究。 本文分析 SPWM、SVPWM 在不同载波比与调制比下对输出电流波形谐波大小及分布特性的影响进行分析;然后采用Simulink、Simplorer、Maxwell场路耦合仿真对 4 台永磁电机进行计算,研究电流时间谐波对电机附加谐波损耗的影响规律,并结合试验验证其准确性,总结计算修正系数;研究结果显示:经研究分析得出,短距集中式分数槽的极槽配合和绕组形式能有效抑制时间谐波,采用“深而窄”的定子槽口尺寸及较宽的气隙长度能削弱永磁机的附加谐波损耗,永磁体轴向分段与周向分段都能有效减小永磁体涡流损耗,而轴向的分段形式抑制效果更佳。 论文研究具有理论价值和实际应用价值,进行了理论、仿真、实验研究,理论阐述比较清楚、分析比较深入具体,仿真结果,工作量充足。达到硕士论文水平,建议授予学位。,0,1,0,1,0,0,0,0,0,0,0,0,1,0 +376,论文《磁致伸缩镜面偏转双级精密驱动系统机构设计与特性研究》的选题具有工程应用与科学研究的意义。作者通过对国内外与该选题相关的领域发展现状的论著和文献的收集、归纳和综合分析,明确了论文所要解决的问题,研究方向比较明确。 论文完成了以下工作:设计了一种微位移执行器—超磁致伸缩执行器(Giant Magnetostrictive Actuator,GMA),并以铁磁材料畴壁理论的Jiles-Atherton模型为基础,分析了磁化强度模型中物理机理变化过程;建立了在磁场作用下 GMA 系统的输入电流与输出位移(磁化强度与磁场强度之间的磁 滞)关系模型;并以柔性铰链为单元设计了微位移放大机构,利用 COMSOL Multiphysics多物理场耦合方法对位移放大机构的受力和位移进行了分析; 研制了以 PMLSM 为第一级执行器的宏运动平台以及以 GMA 为第 二级执行器的微运动平台,分析了其运动性能;搭建了双级驱动的实验系统,对双级定位系统分别在高速、高加速度的条件下,进行了实验研究和性能测试。 论文的研究成果有实用价值,论文难易适当。 论文的分析和研究工作所涉及的内容反映作者掌握了相关学科的专业知识,具有了基本的从事科研工作的基础。 论文写作条理比较清楚,分析较严谨,论文写作基本符合规范性。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1259,电子封装材料是集成电路的重要组成部分。随着超大规模集成电路的快速发展,对电子封装材料的要求越来越高。基于此,该学位论文开展高硅铝合金电子封装材料的研究工作,选题很有价值。 该学位论文在对国内外相关领域研究现状进行综合评述基础上,设计了合理的实验研究方案,以Al-60wt.%Si体系作为研究对象,采用粉末冶金液相烧结方法制备新型低膨胀,低密度,高导热的Al-Si电子封装材料,并对所制备合金的显微组织、密度及热物理性能等进行了研究,取得了多项有价值结果。 该学位论文研究内容饱满,工作量大,撰写条理比较清晰、图表比较规范,结论归纳比较准确。 综上,评阅人认为该学位论文达到硕士学位论文要求,同意组织学位论文答辩。,0,1,1,1,0,0,1,0,1,1,1,0,0,0 +5,“企业避税、货币政策与经营业绩”一文从辨析“避税”、“逃税”等基本概念入手,较为全面地阐述了企业避税、货币政策与经营业绩的关系。论文的选题具有一定的现实意义,具有一定的研究价值,论文研究方法得当,研究结论也比较明确,文章结构比较合理,论述也较充分。该文认为,企业避税程度的增加显著抑制经营业绩的提高;货币政策宽松时期,企业避税的代理成本增加效应更为显著,导致经营业绩加速下滑;货币政策紧缩时期,企业避税起到融资约束缓解作用,但只有紧缩到一定程度才能提升经营业绩。这些结论对实务有一定参考价值,但总体来看,该文的创新性还有待进一步提升。,0,1,0,0,0,0,1,0,0,1,1,-1,0,0 +1887,论文针对电子产品外壳材料电磁防护及抗静电的需求,制备了一种镀银铜粉为填充剂的导电涂料,开展了填充剂化学镀工艺优化及导电涂料配方、涂布工艺的相关研究,并对涂料的附着力、硬度、耐水性、老化、耐碱性、耐盐性进行了表征测试。论文选题具备明确的工程应用背景,对导电涂料的工程应用具有一定的理论指导意义。作者对所研究领域的文献动态把握较为全面,实验研究目标明确,方法得当,研究内容较为系统,工作量达到硕士论文要求,论文写作逻辑性较好,但相关机理分析有所不足。修改后可以答辩。,0,1,1,1,0,0,0,0,1,1,0,1,0,0 +2814,论文以《某SUV维修手册》中发动机控制系统部分内容为翻译对象,运用纽马克的交际翻译理论并结合侵彻英语文本的特点,分别从词汇短语和句法三个层面对英译实践活动进行分析论述。论文选题符合翻译实践报告规范,有现实意义。论文研究资料较为翔实,资料运用合理,论证充分,符合科技翻译专业特色,研究成果有实用价值。论文逻辑清晰,结构合理,层次封面,文笔流畅,形式规范,无语法错误。论文达到硕士学位水平,同意答辩。,0,1,0,1,0,0,1,1,1,0,0,1,0,0 +1738,论文选题源于工程应用,申请人针对基于剩磁法的应力检测技术开展了研究,选题具有一定的意义。论文在检索了国内外相关研究成果的条件下,叙述了材料的磁化及剩磁原理,描述了剩磁与应用之间的对应关系,利用有限元对剩磁的影响因素开展了分析,利用试验对剩磁的稳定性开展了分析。论文结构较为完整,条理较为清晰,论文跟踪国内外研究进展分析归纳略显不足,工作深度有待加强,论文达到硕士研究生的毕业标准,建议认真修改后答辩。,0,1,-1,0,0,0,0,0,1,0,0,0,-1,0 +335,高校的社团种类多、学生参与人数多、社团活动多样化,使得学生社团的管理工作日益加重,传统的管理模式已经越来越难以应对大学生社团管理。该论文通过对高校社团管理工作进行调研分析,阐述了社团管理系统的需求以及系统建设的意义,开发设计了基于.NET的高校社团管理系统。该系统能够有效提高社团管理的工作效率,减少人力资源的投入,使社团管理更方便快捷。 该论文的主要工作及成果如下: (1)研究了系统开发的相关知识和应用技术,阐述了主要技术的体系结构、工作原理及特点,完成了系统开发的知识储备。 (2)设计了系统的架构、各个功能模块和系统数据库。 (3)实现了社团管理系统的各项功能,并对系统进行了测试。 该论文条理清楚,逻辑性强,参考了大量中外文献,文字、图表等较规范。 综上所述,反应作者在本门学科上掌握坚实的基础理论和系统的专门知识,具有从事科学研究工作或独立担负专门技术工作的能力,达到硕士学位论文水平的要求,推荐参加硕士学位论文答辩,建议授予硕士学位。,0,0,1,0,1,1,1,0,1,0,0,0,0,0 +1810,论文以航空阀用电磁机构的优化设计为主要研究内容,分别进行了电磁机构参数的计算、仿真,并基于正交设计的方法采用翅片散热对机构进行了散热优化,选题具有较好的工程应用价值,论文整体研究内容较丰富,逻辑性也较完整,达到了硕士学位论文的基本要求,建议在进行修改和内容补充和可以参加论文答辩。此外,有如下建议请参考。,0,1,0,1,0,0,0,0,1,0,0,0,0,0 +1568,论文采用试验研究和理论分析相结合的方法,制作了7根自密实再生混凝土梁以及7 根普通混凝土对比梁,针对持续荷载和氯盐侵蚀对自密实再生混凝土梁受弯性能的影响进行了研究,并得到有意义的结论。论文内容丰富,实验量大,工作量丰满,格式规范,图表清晰,创新性较好,对实际工程有较好的应用价值和借鉴意义。,0,0,0,1,0,0,1,0,0,0,1,1,0,0 +527,论文研究了金属棒材在二斜辊矫直过程中的瞬时回弹行为,针对棒材初始弯曲、棒材中性层位置、棒材反弯曲率几个方面对棒材弹复曲率开展研究。选题具有重要的工程价值。 论文基于理想弹塑性模型建立金属棒材的弹复曲率近似计算公式,分析了棒材矫直过程中棒材弯曲变形与曲率、弯矩以及能量消耗之间的关系。明确立弹区比、曲率比、弯矩比以及曲率半径之间的关系。对影响棒材弹复曲率的几个方面如棒材初始弯曲、棒材矫直过程中的中性层偏移以及棒材矫直时的反弯半径进行分析研究。研究方法基本正确,结论基本可信,工作量一般,基本达到硕士学位论文的基本要求,建议组织答辩。,0,1,0,-1,0,0,0,0,0,1,1,0,0,0 +1310,该论文涉及基于电路交换的片上网络优化研究,利用对链路路线带宽的均等划分,在同一链路的不同子链路中同时采用初始的虚通道转发方式以及电路交换转发方式,这使得原本的链路中包含了两种转发机制,使得网络变为混合交换网络,采用基于全局流量控制的贪婪算法和遗传算法以及基于本地流量控制的本地算法在网络中寻找高流量的链路,为这些高流量的链路搭建电路交换转发方式的电路子网,当通过这些混合交换转发方案的链路传输流量时通过电路交换电路子网转发的数据包不仅减少了传输延迟同时也省去了缓冲区存储流量,路由转发流量以及仲裁流量所花费的动态能耗,具有较好的理论研究与实际应用价值,全文撰写较为规范合理。,0,0,0,0,0,0,0,0,1,0,0,1,0,0 +2646,论文基于胡聿贤谱和欧进萍谱,采用复模态分析方法,分别对基础耗能隔振结构和层间耗能隔振结构的随机地震响应进行分析;并基于频响函数和功率谱的二次正交化,最终获得响应谱矩的解析解。选题具有一定的理论意义与工程使用价值。论文达到硕士学位论文水平,同意修改后提交答辩。论文存在以下不足之处:1.创新点需要进一步凝练,要区别创新点与结论的区别;2.请阐述地震随机激励模型为何仅选取胡聿贤谱和欧进萍谱;3.建议对比本文所选不同地震动模型对结构地震响应的影响;4.请检查参考文献格式,避免[29]、[33]、[40]等不规范情况出现。,0,1,0,0,0,0,-1,0,-1,0,0,-1,0,0 +481,论文选题结合工程实际,具有较好的理论意义和实用价值。论文设计了一台油田用的轴向磁通永磁电机,并针对永磁电机中永磁体厚度过大带来的问题提出夹心转子结构,即原本一块永磁体分为三块,中间那块用导磁材料代替。同时,针对永磁涡流损耗太大,分析了永磁体涡流损耗产生的原理,运用分块的方法减少永磁体涡流损耗。论文具有一定的创新,论文写作基本规范,逻辑通顺,反映出作者较好的掌握了本学科知识,并具有较强的独立科研能力。同意修改后答辩。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1879,论文针对磁性金属吸波材料因磁损耗导致的对电磁波有效吸收降低问题,研究了3种磁性吸波材料制备方法及其吸波性能,对吸波材料研究领域实现吸波材料“宽”、“轻”、“薄”、“强”的目标具有较好的理论价值和实用价值。研究目的明确,论文工作量较大,理论分析系统严谨,逻辑性强,有一定深度和广度,具备很强独立从事科学研究的工作能力。写作概念清晰,规范性与文字表达能力强,结论的正确,同意答辩 。,0,1,0,1,0,1,1,1,1,0,1,0,1,0 +1239,变压器替代矿物油老化特性的研究对于电力建设和发展是一项十分重要的工作。变压器油老化特性与变压器故障存在一定的关系,研究其不同老化程度下变压器油特性变化对于评估变压器工作状态,分析变压器故障类型具有一定的科学意义和实用价值。 论文在横向项目的支持下,对不同热老化程度的矿物油和石墨烯油进行了工频击穿、直流击穿和雷电冲击击穿试验,展开了击穿特性分析并进行了对比;进行了矿物油和石墨烯油的气相色谱特性分析及对比;根据分析结果及试验标准提出了基于多个因子的变压器油老化因子评估方法。论文开展了一定的实验和理论分析工作,但整体研究不够深入,针对变压器油老化的评估方法缺乏实验对照,建议论文大修后参与答辩。,0,1,0,0,0,0,0,0,0,-1,0,0,-1,0 +744,文章以电动汽车用高速永磁同步电机为研究对象,以弱磁控制时电流与转矩曲线优化、考虑数字控制延时时高速永磁电机电流环控制为研究目标;论文的选题具有一定的理论和实际应用价值。 作者在大量阅读国内外相关文献的基础上,做出了如下研究成果: 论文给出基于扩展反电动势的内置式永磁同步电机电流环复矢量模型,并进一步推导出精确离散化模型;综合MTPA、MTPV、电压极限圆、电流极限圆曲线,给出IPMSM弱磁运行边界,同时结合传统的前馈法弱磁和电压反馈发弱磁研究了混合弱磁算法,并给出一种快速建立转矩-磁链表格的方法,仿真结果表明混合弱磁算法能使dq电流较好沿着最优轨迹运行;给出一种基于双采样双更新SVPWM调制与角度超前补偿的数字控制延时延时算法,并进一步给出基于精确离散复矢量模型与零极点配置的电流调节器,闭环传递函数的零极点图以及仿真结果表明:文中所研究的电流调节器相较于与传统PI控制器,提高了控制系统的稳定性和动态解耦性能;实验结果进一步验证了上述混合弱磁和新型电流调节算法的有效性。 论文结构严谨,逻辑清晰,写作规范。表明作者扎实地掌握了本专业的基本理论和分析设计方法,达到了硕士论文的要求,同意答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +296,该文提出了一种结构表达编码方法,可以同时对结构和参数进行编码,实现了真正意义上的结构方案与参数的同时优化。该方法将永磁同步电机转子永磁体的结构和参数编码为固定长度的非线性字符串(符号和变量)。不同的字符串可以解码为不同的结构表达树,每一个结构表达树都对应一种转子永磁体的结构和参数。该文以产生正弦波的气隙磁密波形为目标,通过对永磁同步电机的转子永磁体的结构和参数同时进行编码,结合遗传算子和演化框架,利用 MATLAB 与 ANSYS 联合编程对永磁同步电机的转子永磁体进行了优化设计。使转子永磁体结构产生的气隙磁密波形的正弦度达到了 99.78%。 该文对我国永磁同步电机制造具有一定的参考价值,具有一定的新意。经网上搜索,未见类似方法。 显示了该生掌握了较雄厚的专业基础理论知识,具有一定的创新能力和科研能力。 该文立论正确,论述有据,逻辑较为清晰。写作规范性较好。图表符合工程要求。达到了工学硕士水平,修改后可以考虑进行答辩。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +1759,论文研究了基于低频超声信号的胸腔成像问题,主要总结了透射式超声成像技术工作原理、系统结构,建立了胸腔仿真模型,搭建了用于透射式低频超声成像的实验测量系统,应用多重信号分类算法进行数据预处理的方案。 论文选题具有较高的实用价值,作者围绕课题开展了一些研究工作,论文的内容基本完整、格式符合规范。 存在以下列出的问题,宜进一步修改完善。 建议修改后答辩。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +610,论文针对多源微网的应用展开研究,选题具有一定的理论和实际应用价值。论文分析了多源微网能源网络的特性,构建了多能源供能单元模型和多能源网络能量传输模型。设计了一种多能源路由拓扑结构,进行了基于图论的矩阵建模,建立了多能源能量主动分配模型。建立了多智能体的能源优化调度模型,并采用多智能体与蚁群算法相结合进行求解,验证了算法的有效性。 论文理论依据充分,方法可行,逻辑清晰,结构合理,符合硕士论文的要求。,0,1,0,0,0,0,1,0,1,1,0,0,0,0 +1987,纳米氧化锌作为一种重要的纳米半导体材料,在光电转换、生物检测和抗菌材料等方面应用广泛。该论文通过一种醇-水溶液化学反应体系制备了纳米氧化锌,研究了表面活性剂、前驱体和表面活性剂种类、溶剂种类、反应体系的醇-水体积比、表面活性剂与前驱体的摩尔比、pH 值和搅拌速度等因素对纳米氧化锌制备的影响。 并通过紫外-可见吸收光谱、X 射线衍射、透射电子显微镜等方法对纳米氧化锌的光学性质、尺寸形貌等进行了表征。选题具有重要的理论意义和实用价值。 该论文工作量大,数据翔实,论据可靠充分,实验方案较合理、路线正确,表明作者具有一定的专业知识。论文书写较规范,表述较清晰,逻辑严密性尚可,达到了硕士论文水平的要求。,0,1,0,1,1,0,1,1,1,1,0,0,0,0 +170,本文作者建立了碳纤维增强环氧树脂-AA2024-T3铝合金以及AA2024-T3铝合金-TC4钛合金两种电偶体系,分别研究了pH、表面积比、氯离子浓度和温度变量对两种合金体系的腐蚀行为,并探索了有机酸铈强化抗腐蚀能力的作用。本文选题较新颖,研究思路清晰,逻辑严谨,语言简练,写作较规范,达到了硕士学位论文的要求,同意推荐答辩。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +702,硕士论文 《共享经济的生态哲学解析》选择共享经济作为论文研究主题,反映了当前网络时代互联网+经济的社会大潮流,对其展开生态哲学角度的解析,切合世界生态经济和中国特色社会主义生态文明建设的实际需要,具有重要的理论意义和实际意义。 论文对共享经济的相关概念进行了简单解读,将经济的生产关系中生产、交换、消费三个环节对应为共享经济中的生产、共享平台、消费三个维度,对共享经济的内涵、特征、影响等进行了生态哲学解析,这样的解读方式有自己的一定创新性。 论文选题合理,论述较为清晰,引述较为规范,行文流畅,达到硕士学位论文水平。,0,1,0,0,0,0,1,1,0,0,0,1,0,0 +986,修改后的创作报告,总体达到了毕业设计阐述报告的要求,行文更为流畅,逻辑更为清晰,观点也更为明确。 但还是存在一些问题,比如在第二节《导入互联网思维,强调“用户”价值》这部分内容中,作者对互联网思维的理解不够到位,导致理解窄化。在报告中,作者提到:在新闻节目《新闻说》中在节目内容制作过程中更加注重观众的内容兴趣度,在食用菌是否存在甲醛问题报道时,通过“那食用菌中到底是否存在甲醛呢?哈尔滨各大生鲜超市 食用菌的进货渠道又是什么样的呢?”提问的方式提升受众的兴趣。注重观众的兴趣,这在传统媒体时代电视节目就有,并非是互联网时代的特有要求,也不契合互联网思维。建议作者进行补充修改。 ,0,0,0,0,0,0,0,1,1,0,0,0,-1,0 +759,线圈辅助励磁无刷直流电机具有电枢绕组与中央辅助线圈两套绕组,磁场相互耦合,解耦困难,电机参数变化复杂,控制系统的控制性能受电机参数影响较大,控制难度增大。论文通过Maxwell、Simplorer和Matlab三个软件联合搭建了一个针对CAE-BLDCM的仿真平台,采用基于RBF神经网络在线辨识的双神经元自适应智能控制策略,实现了电机电枢绕组与中央辅助线圈联合控制。 论文选题具有一定的应用价值,文献综述能够反映国内外该选题及相关领域的发展与现状。 论文的主要研究成果: (1)搭建了基于Maxwell、Simplorer以及Matlab三个软件联合仿真平台对电机控制系统进行仿真分析,可以在不建立数学模型的前提下实现电机不同控制策略的对比分析。 (2)采用基于RBF神经网络在线辨识的双神经元自适应PID控制策略,针对CAE-BLDCM结构,同时调节电枢绕组电压和中央线圈电压,实现中央线圈与电枢绕组的联合控制。 (3)基于TMS320F28335DSP控制芯片搭建了CAE-BLDCM双神经元自适应PID控制系统实验平台并进行了调试,验证了系统设计方案的合理性。 论文工作表明作者较好地掌握基础理论、专业知识和研究方法,具有一定的独立从事科学研究的能力。 论文条理清晰、文字通顺、图表规范;材料真实、结论合理;概念清晰、逻辑性强。,0,1,1,0,1,1,1,1,1,0,1,0,0,1 +1722,论文选题科学,能够围绕深度学习对驾驶行为进行检测,具有比较好的研究价值,文献综述较为全面,可以进行答辩。但是,论文在描述作者提出解决方案的时候内容较少,不能突出方案实施的细节,描述不够完善。此外,论文撰写小问题较多,如“卯卯茅舍顿开”、“并他们做我坚持的后盾”,请调整结构,突出作者贡献内容,减少文字错误,修改后答辩。,0,1,1,0,0,0,0,-1,0,0,0,0,0,0 +364,冷藏车的用途越来越广泛,蔬菜、水果、药品均需要冷藏车运输,尤其是各种疫苗,因为冷藏车内温度不符合要求而造成疫苗失效事故时有发生,论文研究冷藏车自动化远程监控系统有实际意义。 论文采用嵌入式处理器作为核心,设计了温度、湿度、光照等传感器接口,构建了车载环境测量模块,测量模块采用无线模式与主控CPU通信,主控CPU通过GPS/北斗定位系统获取车辆位置并通过4G网络与中心服务器连接,设计了远程服务器软件和终端软件,可以存储、查询车辆行驶记录及行驶过程中车内环境数据,保证车辆环境符合要求,经搭建测试系统实验,证明所设计系统能够实现所设计功能,达到了预期目标。 论文语言通顺,有逻辑性,论述充分正确,文字图表规范,符合说是学位论文标准。作者具有较好的专业知识基础,具有运用所学知识解决实际问题的能力,0,0,0,0,1,1,1,1,1,1,1,0,0,0 +1963,论文主要研究了高速永磁电机的涡流损耗问题,有利于改善高速电机的运行性能,选题具有工程实际价值。文中提出一种半解析法计算转子涡流损耗,应用有限元方法,提出混合护套方法抑制转子涡流损耗,并通过仿真设计一台高速永磁同步电机。论述具有一定的理论参考价值和实际工程参考价值。 论文参考文献较详细,写作较规范,论文结构合理,章节编排层次较分明,篇幅适中,符合硕士论文要求。,0,1,1,0,0,0,1,0,1,0,1,0,0,0 +1515,近年来,随着锂离子电池的应用越来越广泛,对其性能的要求亦越来越高。本学位论文研究探索提高锂离子电池循环性能的技术路径,选题很有价值。 该学位论文在对国内外相关领域研究现状进行综合评述基础上,设计了合理的实验研究方案,以富锂正极材料Li1.18Ni0.15Co0.15Mn0.52O2作为研究对象,采用铝硅固体酸(Al2O3?SiO2)对其表面进行包覆改性,研究了经包覆改性的正极材料的形貌、微观结构及其电化学性能;并在此工作基础上,进一步探索了低成本包覆富锂正极材料的技术路径。该论文工作取得了多项有价值结果。 该学位论文研究思路清晰,研究手段运用合理,论文撰写条理比较清晰、图表比较规范,结论归纳比较准确。 综上,评阅人认为该学位论文达到硕士学位论文要求,同意组织学位论文答辩。,0,1,0,0,0,0,1,0,1,1,1,1,0,0 +2601,论文“社会责任、内部控制与企业价值--基于中国A股上市公司的实证研究”,通过企业社会责任和内部控制对企业价值的影响研究,关注到了当前资产评估研究领域的新问题,选题较为新颖,论文对企业社会责任和内部控制与企业价值关系的相关概念和研究进行了梳理和归纳,采用所学专业知识对其进行论证分析,对了解企业价值影响因素,促进企业价值评估体系的完善具有一定的理论和实践意义。论文论点清晰,论证分析有理论和方法基础,文献资料掌握全面;论文结构完善,层次分明,有一定创新性,文笔流畅,表达清晰。文章格式符合学术规范。通过论文的写作可见,该生掌握了相关的基础理论以及案例研究方法,具有一定科研方面的研究能力。综上,论文达到了硕士学位论文写作水平。论文存在如下的不足需要修改:1、论文题目过于模糊笼统,未突出研究论点。2、论文研究分析过程中社会责任和内部控制对企业价值影响的分析,做了大量的文献梳理,但对研究相关基本概念和理论的界定和阐述不足,理论基础对研究的支撑显得薄弱。3、对社会责任和内部控制对企业价值影响的分析不足,指标的选择分析缺乏,导致影响因素指标作用不清晰,对研究结论的支撑未凸显,实践应用意义不突出。4、五、模型设计,这部分除借鉴已有模型外,对模型原理和作用应有研究者的理解和分析,而不仅是模型的验证。5、建议对研究影响因素从理论和实践等方面进行分析总结,提出利用样本分析的目的和分析方向,再针对性提出假设和技术方案,增强论文的系统性和逻辑性。6、建议实证分析设计中增加各分析步骤的设计思路和作用,而不是技术方法的堆砌,并结合研究目的进行归纳分析,充分体现实证研究的目的并进一步支撑研究结论。,-1,0,1,0,0,1,1,1,1,0,0,1,0,0 +1465,该文针对中美贸易战背景下长臂管辖权问题进行研究,其选题有较重要研究价值和现实意义。文中也占用了一定的中外文文献资料,表明作者掌握了一定的学科知识。作者在介绍中美贸易战与长臂管辖权基础上,着重分析了制约美国长臂管辖权适用的原则、国际社会应对美国滥用长臂管辖权的经验,最后提出我国应对美国滥用长臂管辖权的建议,有一定的参考价值。,0,1,0,0,1,0,0,0,0,0,0,1,0,0 +1693,论文围绕我国网络消费者个人信息保护存在的法律问题进行研究,选题上具有较大现实意义,互联网在方便消费者的同时,也使其信息安全被侵害的危险程度上升,如何构建有关法律保护框架,进而解决该问题是理论界与实务界共同关心的问题。作者就国内外关于此问题的观点、具体法律保护模式和部分具体制度进行了分析研究,并结合这些观点和做法,就解决我国网络消费者信息保护的问题提出法律建构建议。作者前期研究成果中,有一篇与本文主题相符,体现作者研究具有一定连续性。从选题、文献综述、研究成果、业务水平及论文写作来看,作者达到了硕士研究生毕业论文的基本水准,同意其对论文进行必要修改完善后参加答辩。,0,1,1,0,0,0,0,0,0,0,1,0,0,0 +1933,论文针对气动软体爬行机器人控制问题,提出了一种蜿蜒运动模式的软体机器人系统,主要研究工作与成果如下: 1)设计了蜿蜒运动模式的软体机器人仿蛇结构。 2)建立了气动软体驱动器数据采集及比例阀的数学模型。 3)搭建了软体驱动器和软体仿蛇机器人控制系统的实验平台。 论文写作认真,结构严谨,条理清晰,工作量饱满,实验结果真实可信。论文研究工作表明作者在本门学科上掌握了一定的基础知识和专门知识,具有较好的文献综述能力,具有独立从事科研工作的能力,基本达到了硕士学位论文水平要求,建议论文进行修改,原则上同意修改后参加硕士学位论文答辩。,0,0,1,1,1,1,0,0,1,0,0,0,0,0 +1564,论文采用案例研究法,在借鉴国内外相关文献及作业成本法理论基础上, 针对KQ企业部件公司自动化背景下间接费用所占比重不断增长的事实,研究采用作业成本法改进该汽车部件公司的成本核算问题。论文设计了一套更加科学的成本核算方法,识别了增值和非增值作业,改进生产流程,以帮助管理层作出更科学的定价决策。 通过阅读论文,可以感觉到作者能够较好的运用作业成本法理论解决KQ汽车部件公司成本核算问题。说明作者能够运用专业理论知识分析和解决实际工作问题,符合会计专硕培养要求。论文选题和研究内容对相关企业有一定的参考价值。论文写作思路清晰,研究框架合理,案例分析比较充分完整,写作规范。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1727,论文选题略显陈旧,由于对营运资金管理这个难度不高的普通性问题缺乏创新性的理论构建和深度分析,致使理论意义与实用价值偏低,也导致论文的创造性与难易程度也偏低;文献综述比较杂乱,论文的规范性有欠缺,错别字较多,文字表达能力不足,论证缺乏条理性,掌握专业理论知识的深度和广度尚显不够,从事科学研究的工作能力尚显不足。,0,-1,-1,0,-1,-1,-1,0,-1,0,0,0,0,0 +1132,本文对船舶能源系统进行了详情的研究分析,立题于实际项目,对于船舶的实际运行有着一定的现实意义。 论文考虑船舶的能源需求,构建了船舶多能源微网系统的数学模型。针对船舶多能源微网系统中多场景下的负荷需求,采用粒子群算法对四种方案进行求解,得出基于多场景负荷特性的船舶多能源微网供能系统优化配置结果。最后,以船舶多能源微网供能系统日运行成本和一次能源消耗量为多目标函数,采用改进粒子群算法求解模型,得出船舶多能源微网系统优化方案的运行结果。 作者广泛查阅了国内外相关参考文献,论文结构完整,逻辑通顺,撰写较规范,理论正确,推导过程正确,结论正确。,0,1,1,0,0,0,1,0,1,0,0,0,0,0 +336,根据薄膜按键线路开关缺陷的特点,选择了合适的硬件设备并制定了相应的成像方案。其中:对于不同类型薄膜按键线路开关之间存在的差异,提出了对不同板型进行注册的机制;针对多粘的按键硅胶帽缺陷,提出了通过区域特征筛选来确定多粘的区域;针对脱落的按键硅胶帽缺陷,提出了基于灰度值匹配的方法等。 论文选题合理可行,有广泛的应用前景,也具有一定的理论意义和实用价值。 从论文撰写方面,可以看出作者掌握了本学科基础理论和系统的专业知识,具有一定的独立从事科研工作的能力。 论文达到硕士学位水平要求,可以提交申请答辩。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +104,本文对光纤传输色散补偿技术做了深入研究。针对几种码型的 BPSK、DPSK、QPSK 和 DQPSK 调制格式提出四种色散补偿方案,对每一种方案进行系统仿真,通过实验验证结果正确,表明该设计有一定的实际应用价值。本文原理基本正确,逻辑严谨,写作规范,图表清晰,但现状分析不够,理论分析创新欠佳。表明该生有一定动手能力,故该文达到硕士学位论文水平。,0,1,-1,0,0,0,1,0,1,0,0,-1,0,0 +1891,论文针对多源储能系统参与电网调峰的经济性问题展开研究,选题具有现实意义和理论价值。作者通过阅读文献,掌握了相关研究的现状,并从多源储能参与电网调峰成本、多源储能系统功率最优分配以及市场环境下的市场主体竞价策略动态优化三个方面进行研究,取得了如下研究成果: (1)建立了计及储能系统寿命和供热收益的电热协调储能参与电网调峰的成本模型; (2)建立了以多源储能系统运行成本最低、蓄电池与储热罐最优功率分配为优化目标的多源储能系统多目标优化模型,通过仿真算例验证了优化模型的有效性。 (3)基于收益原则最大化,建立了包含常规发电企业、新能源发电企业和多源储能商的多主体博弈模型,通过仿真算例验证了模型的有效性,并分析了优化策略的积极意义。 论文整体逻辑清晰,仿真论证充分。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2721,论文选题较为新颖,并且作者具有一定的研究基础,研究问题也具有一定的研究价值与实践意义。论文整体结构完整,逻辑性强,选取理论与研究方法较为适切,研究资料较为翔实,论证较为充分。论文语言表述流畅,写作格式规范,基本符合硕士毕业论文的撰写要求,同意答辩。针对此论文,提出以下修改建议:第一,在C社区少数民族流动妇女基本情况方面,为何不进行已就业和未就业的区分或者就业情况方面的调查,再比如已就业的对目前工作的满意度等;第二,可适当加强相关性分析,如教育程度与就业满意度,或者教育程度与维权意识等能体现小组活动开展必要性、相关性的分析;第三,加强小组实务开展与社会学习理论结合的相关阐述与分析。,0,1,0,0,0,0,1,1,1,1,0,0,0,0 +2792,论文研发了一种以龙门结构为基础的3D打印机,采用无线数据传输,对打印过程进行远程监控。对薄壁结构进行研究,利用3D打印技术,制备聚乳酸薄壁样件,优化填充形状、挤出机喷嘴温度、打印层高以及打印速度等参数,通过万能试验机对其进行压缩试验。对夹层薄壁圆筒进行了有限元分析及优化设计,通过正交试验分析了不同夹层形状薄壁圆筒的压缩性能,得到薄壁管的尺寸数据。但在撰写时,考虑以下问题:1.3D打印机技术与薄壁结构零件是否有直接关系?感觉是3D打印的一个应用实例。2.薄壁结构零件作为吸能材料或制品,当前是否有实际应用?3.工业生产时,薄壁圆筒怎么批量生产?3D打印技术,是否适合薄壁圆筒工业化及产业化?4.注意UG等软件,单位是否有版权。论文达到了硕士学位论文水平,同意答辩。,0,0,0,0,0,0,0,0,0,0,-1,0,0,0 +2893,论文针对焊接栓钉型钢混凝土柱压扭性能开展研究,选题结合工程实践,研究成果具有理论意义与工程实用价值,对提高该类构件安全性具有积极的意义。论文作者在全面总结本课题国内外文献资料的基础上,完成了7根SSRC柱及1根型钢混凝土(SRC)对比柱的压扭低周反复试验,对比分析了各试验参数对SSRC柱扭抗震性能的影响;提出了此类柱在压扭受力状态下的承载力计算公式。论文主要涉及型钢混凝土柱、结构试验、钢筋混凝土柱等方面的理论与专业知识。从论文研究内容、试验手段,分析方法等方面反映出作者具有较扎实的理论基础与专业知识,具有较强的分析问题与解决问题的能力;论文写作条理清晰,符合硕士研究生学位论文的要求,同意其参加硕士学位论文答辩。需注意以下问题:1、《组合结构设计规范》JGJ138-2016规定:型钢混凝土柱混凝土强度等级不宜低于C30,型钢混凝土柱的含钢率不宜小于4%。本文试件采用C25混凝土、型钢含钢率为2.9%,出于何种考虑?2、本文对比了两种叠加方法抗扭承载力的计算结果?建议对比两种方法的抗压承载力计算结果,然后再下结论。3、摘要中写到:“将轴压比和栓钉布置形式作为试验参数”。共设置了6种栓钉布置形式,但轴压比仅考虑了2种,即“X型”栓钉的对比。轴压比参数设置较少,且未考虑其他栓钉布置形式时轴压比的对比。4、第5章焊接栓钉型钢混凝土柱压扭强度计算理论研究,对于组合构件,采用“强度计算理论”不妥,建议改为“承载力计算研究”。5、注意检查语句是否通顺、图名是否合适等。,0,1,1,0,0,0,0,-1,0,0,0,0,0,0 +2844,论文以老字号品牌延伸为背景,探究了老字号延伸产品品牌真实性对母品牌品牌忠诚的影响问题,选题合理,具有一定的现实意义和应用价值。论文观点明确,结构合理,逻辑清晰,研究方法科学,论据充分,有一定的创新性。总之,论文总体质量较好,同意参加论文答辩。问题及不足:1、题目:应该是“老字号”,而不是“老子号”2、摘要第二个自然段,最后一句话应该是:梳理了品牌真实性、品牌情感、品牌忠诚度等相关理论。3、P17(二)SOR理论的应用,这部分内容的阐述与论文的研究什么关系?感觉没有完全围绕论文主题进行阐述。4、P39营销建议的第一小标题要概括一下,作为标题不宜过长.,0,0,0,0,0,0,0,-1,1,-1,0,1,0,0 +1350,该论文以441和444LM两种汽车排气管用铁素体不锈钢为研究对象,分别研究了它们在高温下的常规力学性能和高温疲劳性能,并探讨了其变形、损伤、失效机制,实验过程中涉及到了力学性能测试、蠕变性能测试及分析、EBSD分析、透射电镜分析等理论及测试手段,论文选题具有实用性,整体工作量符合要求,其分析和研究具备硕士应达到的理论水平,论文体现出作者在一定程度上了解并掌握了材料学科力学性能测试分析、组织结构分析、电子衍射分析等常规技能,符合硕士水平要求。论文撰写格式基本规范,但是在凝炼、总结自己工作方面,尚有不足,建议修改后参加答辩。,0,1,0,1,1,0,1,0,0,0,0,0,0,0 +194,电动汽车无线充电系统是电气工程领域的研究热点之一,论文选题合适,具有广阔的应用前景。论文对无线充电电原理及典型的逆变器及谐振补偿结构进行了分析,为提升无线供电系统的传输效率及稳定性,选择LCL结构作为谐振补偿网络,并对反射阻抗、品质因数、谐振点等电路参数进行了详细讨论:在保证工程上可行性及经济性的条件下,缩小原边线圈间距或改变原边线圈电流流向可以增加两线圈间的磁场强度,提升两线圈中线处的磁场强度,进而提升原、副边线圈间的互感稳定性。论文建立了原边双并联的无线供电系统的等效模型及等效电路,利用MATHCAD软件、Ansoft软件对无线供电系统关键影响因素包含原边间距及原边线圈的电流流向等进行了详细分析,并通过编写Matlab程序仿真,验证了理论分析的正确性和所设计参数的合理性。论文工作表明作者掌握了坚实的理论基础和专业知识,论文结构合理、文理通顺,达到了硕士论文水平,同意组织论文答辩。,0,0,0,0,1,0,0,1,1,0,0,0,0,0 +327,改论文选取 隐晶质玄武岩与杏仁状作为研究对象,分析不同围压下硬脆性玄武岩 的破裂发展过程和破坏模式,计算玄武岩 的各特征应力 ,讨论隐晶质 与杏仁状玄武岩加载 条件下 的强度演化规律 ,选题具有实际意义,对隐晶质玄武岩峰前循环加卸载试验数据进行分析处理,探讨了采用方法得当。结论可靠,思路严谨,达到力学硕士学位论文要求,同意答辩。,0,1,0,0,0,0,0,0,1,0,1,0,0,0 +395,论文从存货内部控制的五要素,看YT 超市存货内部控制的整体现状,发现其内部控制各关键环节存在的问题,并对原因进行分析,结合YT 超市的具体情况,依次分析存在问题环节的关键风险点、控制目标,并提出具体改进建议。 论文从存货的分类角度去发现重点环节内部控制存在的问题。 论文选题恰当,结构合理,论述清晰,写作规范,合乎逻辑。论文达到硕士毕业水平。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1843,论文以折弯机参数预测为研究对象,分别从折弯机精度影响因素分析、基于BP神经网络以及基于遗传算法改进的BP神经网络折弯机精度预测等三个方面进行了分析和阐述。论文选题具有一定的创新性,但论文中关于折弯机技术的研究现状论述内容较为笼统,也未讨论对折弯机进行模型预测的意义。论文的研究内容具有一定的理论意义和实用价值,但论文完成的工作量偏少,研究的内容也较为简单。论文整体结构安排合理,但行文较为晦涩,且存在过多的错别字、错误的标点符号、以及病句。,0,1,0,-1,0,0,0,-1,1,0,0,0,0,0 +1216,本文针对双三相永磁同步电机转矩控制方法开展研究,选题较为新颖,属于目前国内外技术研究热点。本文文献综述工作不到位,没有对本领域近三年研究成果进行充分的总结和分析。本文针对直接转矩控制算法与预测控制算法开展研究,作为硕士论文来说,研究内容过多,导致研究不够深入,体现在本文提出的改进直接转矩控制算法缺乏创新性。本文协作较为规范、逻辑性较强,但对所提方法仅进行仿真验证,没有在实际系统进行实验验证。,0,1,-1,0,0,0,1,0,1,0,0,-1,-1,0 +1534,"冷热电联供系统与微网相结合的冷热电联供微网,可有效提高能源利用效率,减少污染气体的排放,其调度策略研究对能源和环境问题的解决具有重要理论意义和广泛应用价值. 本文根据不同时段冷热电负荷峰谷需求,研究并建立了确定性和不确定性冷热电联供微网调度模型,并采用粒子群算法对所建模型求解,验证了调度策略的有效性。所做研究工作表明,作者具有一定的独立从事科研工作的能力。 论文结构尚合理、书写也较规范。 论文已基本达到硕士学位论文要求,同意在作较大修改后组织答辩。",0,0,0,0,0,1,0,1,1,0,0,0,0,0 +3027,智能制造是离散型制造业高质量发展的主攻方向。论文以W公司为研究对象,研究离散型智能制造车间的系统建模与仿真问题,对企业智能化改造升级有参考作用。选题具有一定的现实意义和和实际应用价值。但是,论文存在以下问题:1.第1章绪论,研究背景对问题不够聚焦,问题缺少提炼,研究目标不清晰,国内外研究现状综述太泛;离散型智能化车间内制造系统是什么,以及论文课题为什么做、做什么、怎么做等,没有清晰论述。2.第2章离散型智能化车间制造系统架构,从1-6节内容看,没有给出完整的制造系统架构,内容与标题相关性不够。3.第3章实验设计,只介绍了仓库室内RFID定位系统设计(只给出了布置图)及其算法的实验;3.4引入RFID室内定位系统的车间模型、3.5车间动态事件分析与3.6高机械性重复性工作脚本化,这三节内容与实验设计是什么关系,缺少论述。4.第4章仿真与模拟,缺少实例背景与数据,缺少实体模型,仿真目的不清晰;5.整篇论文缺少逻辑性、学术性和创新性,写作不规范,每章缺少小结,标点符号、语句、语法、图表等错误太多;6.参考文献格式不规范,引用学位论文过多等。综合以上,该论文没有达到硕士研究生学位论文水平。,0,1,-1,0,0,0,-1,0,-1,-1,0,0,0,0 +762,新媒体环境对大学生网络道德教育带来机遇和挑战。硕士学位论文《新媒体环境下大学生网络道德教育研究》聚焦新媒体环境下大学生网络道德教育的理论和实践问题,具有重要的学术意义和实践价值。 论文从“新媒体环境”和“大学生网络道德教育”的概述入手,通过调查进一步分析新媒体环境下大学生网络道德教育的现状、问题、成因,最后剖析新媒体环境下大学生网络道德教育的途径。 论文选题视角独到,研究思路较清晰、注重理论联系实际,具有一定的学术水平和科研能力。,0,1,0,0,1,1,0,0,1,0,0,0,0,1 +2508,该论文主要围绕SERS技术构建适配体传感器及识别和检测cTnI而开展研究工作。作者提出了三种高灵敏度的SERS适配体传感器检测策略,并成功应用于人血清中cTnI的高灵敏度检测,一定程度上为疾病标志物含量的检测和传感器的构建提供了一些新的思路。论文写作较为规范,对本学科及相关领域的发展综述完整,实验数据可靠,体现作者具备一定的条理和逻辑性以及较坚实的理论基础。论文语言表达准确,论文水平达到了硕士学位论文要求,但仍需改进和完善。修改意见如下:1、论文正文多处使用了四级标题,可将其内容并入三级标题或改为(1)、(2)……的形式。2、论文中多次交替使用cTnI、SERS、AMI等的中文全称和缩写,应在第一次出现后注明全称和缩写,之后全部使用缩写形式。3、图片问题:图1-6、2-2中多处图形或文字模糊,建议更换清晰图片。4、个别语句逻辑混乱:1.1.2.3中“除此之外,多通道检测可在同一检测中实现两种或多种检测技术对目标物质的同时检测,极大提高检测的准确性和可靠性”语义不通,改为“除此之外,多通道检测可在检测中实现对两种或多种目标物质的同时检测,极大提高检测的准确性和可靠性”。5、注意细节失误:摘要“在临检测和诊断方面具有一定的应用价值”的“临检测”应改为“临床检测”。4.2.2“柠檬酸三纳溶液”的“纳”改为“钠”。1.2.2.1“天线共振子模型指出,将粗糙金属表明的颗粒视为磁场中的天线振子,在一定条件下,电磁波在粒子中发生共振,引起表明增强拉曼效应”中的两个“表明”应改为“表面”。1.1.2.1中“敏感元件可高选择性的识别被测物”中“的”改为“地”。1.1.2.3中“兼具化学发光灵敏度高、线性范围宽和电化学检测速度快等的优点”去掉最后一个“的”。1.2.2.3中“一般的”改为“一般地”。3.2.4中“得到待测样”改“得到待测样品”。3.2.5“自然晾干后在测定其拉曼信号”中“在”改为“再”。3.3.4中“之后随着浓度的增强”改为“之后随着浓度的提高”。5.2中“成功的”改为“成功地”。,0,0,0,0,1,0,0,1,1,0,0,0,0,0 +2419,"该翻译报告选题为科技类,选题具有现实意义。译者在翻译中采用了关联理论,能够指导译者的翻译过程,使译文达到了一定的质量。翻译报告整体排版及格式规范相对较好。总体而言,经修改后可以达到答辩要求。但是,论文在以下方面尚有进一步提升优化空间:1.格式规范和用词方面。注意标点符号的规范用法,例如:标点和空格使用随意communicator’smeaning,;手误:notconformtothethestandardexpressionintheindustry;冠词误用:suchasextensionofwordmeaning,inanageofcomputers,;前后不一致:humansandmachine;介词误用:academicpapersofscienceandtechnology;主谓不一致:thecommunicatorconveyscommunicativeintentionswhichisdelivered...;词性混乱:thisstandardisrelevance等等。2.理论应用方面。译例分析讨论部分的设计似乎对所采用的理论有所割裂。在案例分析中,翻译理论没有与案例分析紧密结;总结部分并未提及关联理论对该翻译的作用,窄化了关联理论对科技论文翻译的重要性。3.翻译报告内容方面。Section1.2的论述冗杂,缺乏逻辑性,未能直截了当地指出本文的意义;译前部分缺少对于翻译过程中使用工具的介绍;译中缺乏对于文本内容的理解和表达过程的介绍;第三章3.1节有三级标题,但是3.2则没有三级标题,导致结构不对称;文中所列举的部分案例分析不够典型,缺乏代表性,如section2.3.1和section2.3.2;对于局限的总结,作者写到:Insummary,...应增加翻译研究实质的启示,不能仅局限于经验化反思。4.译文译例方面。译文译例的打磨还要继续下功夫。",0,0,0,0,0,0,-1,0,-1,0,-1,0,0,0 +715,随着现代电网技术的发展,对配电系统保护要求越来越高,本文对两段式短路脱扣的电磁系统及动作特性进行研究,具有十分重要的实际意义。 论文以小型断路器DZ47-60 为参照物,研究其结构和动作特性,通过掌握小型断路器运动机理,提出新型可实现两段式短路脱扣的电磁系统及动作特性的研究总方案。选择电磁铁,利用麦克斯韦方程推导分析脱扣电流大小和主要影响因素;借助matlab 中simulink软件,进行理论推导的验证。设计了一种实际电磁机构,并利用ansoft 3D 磁场的建模和仿真,进行仿真验证和改进。 论文文字通顺、图表规范、条理清楚。论文表明作者的治学态度严谨、学风正派;掌握了本学科坚实宽广的基础理论和系统深入的专门知识,具有独立从事科学研究工作的能力。,0,1,0,0,0,0,1,1,0,1,1,0,0,1 +50,TIG焊在工业技术中极为重要,然而存在焊缝熔深较浅、焊接效率较低等问题。该论文针对该问题,通过外加交变尖角磁场的方式,研究分析交变尖角磁场参数对 TIG 焊接电弧形态、电弧特性、微观结合和力学性能的影响规律。搭建了频率和磁场强度可变的交变尖角磁场发生装置,探索了优化提高 TIG 焊接接头性能和效率的方法。 选题对TIG焊技术有一定的意义,研究工作量较为饱满,论文表述逻辑清楚,写作基本规范,表明作者基础知识比较扎实,并具备了一定的科研能力,基本达到了硕士生培养的要求,建议通过本次盲审。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +685,人口老龄化将会使社会结构改变,社会负担加重,对社会医疗体系,社会保障体系带来巨大挑战,究其根源是资源供给不足。因此,在我国人口逐步步入老龄社会的大环境下,在现有资源下,如何提高老年人及残障人士生活质量具有重要意义。论文以此为背景,对能帮助护理人员减轻如厕护理负担的协作机器人进行研究。论文在对国内外护理机器人、人机协作领域的研究现状进行了调研的基础上,对排泄辅助移动机器人在智能养老领域的人机协作策略、使用者行为意图识别等关键问题进行探讨研究。研究面向当前社会发展的需求,具有一定的应用参考价值。 本文作者在导师的指导下,在掌握了本专业基础理论和操作技能的前提下,提出了排泄辅助机器人人机协作控制系统的总体设计方案;建立并分析人机协作过程中所必要的数学模型;以人机协作过程建模分析为基础,进行算法与策略的优化;最终进行了基于数据的算法仿真与机器人样机验证,分析结果得出了一些意义的结论。 论文在护理机器人建模及控制策略方面作了一些工作,具有一定的参考价值。作者能够解决自然科学或工程技术中的一些关键问题。论文体现出作者掌握了与本学科及相关领域一定的基础理论与专门知识。论文结构较严谨,逻辑性较强。论文语言表达较准确、层次分明、图表较规范。体现出作者具有一定的独立从事科学研究的能力。 论文基本达到了硕士学位的水平,建议作为硕士学位论文安排答辩。,0,1,1,0,1,1,1,1,1,0,1,0,0,0 +164,"本文针对如何使用单次或者较少的扫描次数,获得多种对比度的MR 图像这一选题,对MRI多对比度成像进行了研究。基于变翻转角多回波的数据,研究了不同对比度图像的重建方法。为了减少B1+场不均匀造成的重建误差,提出适用于变翻转多回波采集的B1+场测量方法,进行了T1 map 校正,结果表明提出的B1+场校正方法能够得到高精度的T1 定量图。针对磁化率反演引入严重伪影的问题,提出改进方法并完成了QSM 磁化率反演,有效降低重建伪影,并得到组织细节表达清晰的重建图像。论文将新提出的B1+场校正方法及磁化率反演方法,用于变翻转角多回波数据采集的多对比度成像技术中,得到了高质量的4 种对比度的图像,通过实际水模和人体扫描,验证了这种多对比度成像方法的有效性,在临床应用中具有一定实际应用价值。论文工作认真,实验结果充分,写作认真,条理清楚,表明作者已经较好地掌握了MRI成像的专业知识和技术。",0,1,0,1,1,0,0,1,0,1,1,0,0,0 +546,论文研究直流真空断路器换流回路参数多目标优化及场路耦合分析,选题具有重要的理论及实用价值。论文的主要工作如下: 1)建立了描述直流真空断路器的微分方程,基于龙格库塔法进行了数值计算; 2)采用非支配排序遗传算法对直流真空断路器的换流回路进行了优化设计。 3)采用有限元法对直流真空断路器进行了各种工况的数值模拟。 论文说理清楚,具有创新性的工作,论文写作比较规范,逻辑性好。整个论文表明了作者在电气工程领域具备了较为扎实的学科知识。,0,0,0,0,1,0,1,0,1,0,0,1,0,0 +2734,论文选题具有明确的工程应用背景,研究具有理论意义和实用价值。综述体现了作者对人体动作感知的康复机器人控制技术国内外发展状况和学术动态的了解程度较高。论文提出了一种基于人体动作感知的康复机器人主动控制技术,具有一定的应用价值。论文体现了作者具备一定的理论基础,初步具备了分析问题、解决问题的能力;可以采用先进技术、设备、信息等进行论文研究工作。引文的规范性较好,学风严谨;论文语言表达准确、逻辑严密、书写格式及图表规范。具体问题请酌情修改:1、文献引用的格式不统一。有些使用上角标,有些没有使用。2、2~5章涉及到的内容比较多,但是重点不够突出,理论分析和试验数据不够有说服力。3、第6章内容偏少,建议与其它章节合并。该生达到了硕士学位论文水平,同意答辩。,0,1,1,0,1,1,-1,1,1,0,0,0,0,0 +1559,论文《极限工况下电磁悬架动力学特性分析》构建电磁悬架控制系统联合仿真平台,进行相关研究,其研究成果具有一定的工程实践意义。 论文首先利用滤波白噪声法建立连续随机道路数学模型、 离散脉冲路面模型和正弦路面模型,然后以车辆动力学仿真软件中整车模型为研究对象,采用试验用车的参数定义整车七大子系统特性的主要参数。论文同时设计了PID 控制器和 LQR 控制器设计,并根据所设计的模块化阻尼控制系统, 设计并搭建出电磁悬架控制系统联合仿真平台。通过实车试验,验证整车模型的构建较为准确,并对四种典型的极限工况进行联合仿真,仿真结果表明经联合仿真 LQR 控制器控制的电磁悬架整车模型比被动悬架整车模型和 PID 控制器控制的电磁悬架整车模型具有更好的动力学特性。 论文作者能够综合运用所学知识,进行相关理论分析与研究。论文撰写思路较清晰,内容表达较完整,基本完成课题的研究。,0,0,0,0,0,0,0,1,1,0,0,1,0,0 +1667,论文设计了一种永磁斥力型的正负刚度并联的低频隔振平台,对正刚度弹簧单元进行参数设计和刚度计算,设计了弹簧单元的分布和位置控制,对低频隔振平台的整体结构进行参数设计,完成对柔性铰链的选取,计算了其转向刚度和垂向刚度,运用Adams扫频方法和振动模块分别对线性系统和并联系统进行动力学分析,论文选题有实际意义,论文对低频隔振平台的开发有实用价值,论文格式较规范。,0,1,0,0,0,0,1,0,0,0,0,0,0,0 +1665,论文设计了超声滚压变幅杆,通过仿真和实验,研究了超声滚压工艺参数对钛合金和不锈钢试样表面的微观形貌、粗糙度、显微硬度、残余应力等的影响规律,论文研究具有一定的应用背景和工程应用价值。 论文研究方法正确,论据较充分,层次分明,写作较规范。论文工作表明论文作者具备综合运用基础理论和专业知识解决工程实际问题的能力。,0,1,0,0,0,1,1,0,1,0,0,0,0,0 +2531,该硕士论文达到了硕士学位论文水平。该硕士论文研究了大豆分离蛋白(SPI)和豌豆分离蛋白(PPI)复合体系理化结构性质和凝胶特性,以及水力空化技术对复合凝胶特性的影响,为植物基食品的开发提供了理论参考。该论文研究具有较好的理论意义、实用价值;对本学科及相关学科领域国内外发展状况和学术动态的了解掌握较好。论文提出的新见解、新方法所具有的价值一般;论文成果对技术进步、经济建设、国家安全等方面产生的影响或作用一般。论文体现的理论基础的扎实程度一般;本学科及相关学科领域专门知识的系统性;分析问题、解决问题的能力一般;研究方法的科学性较好,采用了较先进的技术、设备、信息等进行论文研究工作。引文的规范性,学风的严谨性一般;论文语言表达的准确性较好、逻辑的严密性、书写格式及图表,尤其是参考文献格式有一些的错误。,0,1,1,0,-1,0,-1,1,0,1,0,-1,0,0 +1742,论文选择秸秆膨化机进行研究,对农业副产品的综合利用具有较大的促进作用,选题合理。文章针对现有秸秆膨化机的不足,提出了倒三角形排列的三螺杆秸秆膨化机的构想。对三螺杆秸秆膨化机核心部位三螺杆的空间几何原理进行分析,对三种不同排列组合的三根螺杆进行了对比,分析了其主要参数与螺纹头数之间的关系。推导了相关几何面积和体积的计算公式以及啮合型三螺杆螺纹元件端面型线形成过程。对三螺杆式秸秆膨化机内部流场建立了数学模型与物理模型,对流场划分合理的流体域网格模型,编译了UDF 函数,定义动网格运动区间。模拟了流固耦合下流场变化对螺杆形变及磨损的影响。对双、三螺杆秸秆膨化机在速度场,压力场和流固耦合场进行对比。 论文选题结合实际,选题合理。文章结构合理,文字通顺,图表表达正确,作者能将所学知识与课题研究相结合,表明作者具有独立从事科研和实际工作能力。文章基本达到了硕士研究生水平。,0,1,0,0,0,1,1,1,1,0,0,0,0,0 +1024,《马克思主义实践观视域下大学生新媒体素养研究》一文,立足马克思主义实践观分析大学生新媒体素养问题,选题有较强的理论意义和实践价值。 论文主要以沈阳部分高校大学生为调查对象,采用问卷调查法,通过对相关数据的整理,较为详细地分析了大学生新媒体素养的现状及存在的问题,从政府保障力、社会环境、高校新媒体素养教育以及大学生自身等方面梳理了大学生新媒体素养存在问题的原因,并据此提出了在马克思主义实践观视域下大学生新媒体素养培育的合理化建议,结论可信度高。将马克思主义实践观和大学生新媒体素养结合起来,可以说是马克思主义实践观在当今时代背景下的具体运用,体现了马克思主义理论的时代性和发展性。 论文选题符合专业要求,思路清晰,结构合理,资料翔实,立论正确,方法运用得当,反映出作者已经具备了运用相关学科理论进行学术研究的基本能力。研究符合学术规范,达到硕士学位论文水平,同意通过鉴定,推荐参加答辩。,0,1,0,0,0,1,0,0,1,1,0,0,0,0 +885,本论文以研究伦巴舞成套动作编排特征研究为题,以国外现役体育舞蹈选手为研究对象展开多样化的研究。对于提升我国对体育舞蹈编排原理、要素和特征的认知、优化与革新我国体育舞蹈编排,促进我国体育舞蹈项目的发展。选题有一定的意义和价值。该论文的研究对象的表述不清晰、在研究方法的使用方面不详实、资料引证及分析过程存在主观臆断,缺乏可信和可靠性、在文字表述的准确性和规范性方面有待加强。与学术性研究生论文要求还有一定差距。,0,1,0,0,0,0,-1,-1,0,-1,0,0,0,-1 +746,我国电网分布范围广,输电线路容易遭受直击雷的危害,配电线路容易遭受感应雷作用。每年由于雷击造成的跳闸事故高达 50%左右,严重影响供电可靠性,所以对输电线路和配电线路中雷电过电压的分析研究具有重要意义。论文通过建立数学模型的方法对输电线路和配电线路两方面遭受雷击进行研究,得出输配电线路雷电防护措施及方法,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,建议修改后参加答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +1550,论文《电动汽车变速器行星传动系统振动及齿轮修形研究》以电动汽车变速器行星传动系统为研究对象,综合应用理论分析与计算机仿真的方法研究了其振动特性及齿轮修形,选题新颖,研究成果对降低电动汽车变速器行星齿轮传动机构的振动和噪声具有一定的理论意义和工程应用价值。 论文结构较严谨,层次分明,图表较规范,叙述逻辑性较强,数据分析科学合理,反映了作者具有应用本学科的理论知识独立从事科学研究的能力。,0,1,0,0,1,1,1,0,1,0,1,0,0,0 +2306,本文基于图像特征对香蕉褐变程度进行量化,同时从生理生化层面分析了香蕉褐变的机理,以期为香蕉采后贮藏保鲜提供理论基础,具有重要理论意义和实际应用价值。进一步探讨了外源活性氧清除剂抗坏血酸延缓香蕉褐变的效果。以上三个体系从方法学、机理和应用三方面形成了完整的研究体系,逻辑清楚,研究成果为香蕉采后贮藏保鲜提供了理论基础,具有一定的理论意义和实际应用价值。论文综述能系统全面地介绍本学科领域相关进展,理论基础扎实,研究方法科学合理。撰写规范,语言表达准确。研究工作量饱满,内容扎实,尚存在有待改进的地方:综述中提到了已有相关研究利用图像分析技术分析香蕉褐变,前人研究于本研究有何区别?本研究有和创新之处?应在文中简要介绍。,0,1,0,1,1,0,1,1,1,1,-1,1,0,0 +589,论文在了解和分析国内外高压输电线路故障检测定位技术的基础上,通过采集供电公司输电线路相关数据,构建了杆塔终端、EPON 通信网络和后台系统平台,设计了多重复合组网方案,分析了杆塔处OPGW 故障电流分布特性,给出了基于OPGW 电流分布的故障定位方法流程,在此基础上,通过分析网络行波电网拓扑图、基本原理和行波波形,研究了基于故障暂态行波的输电线路故障测距方法,提出了一种基于特征非奇异集的输电线路网络式行波定位单元优化配置方法及相应网络式行波定位算法,能够在行波定位单元数量最少时,定位任意线路上的故障位置。 论文选题有实用价值,对国内外高压输电线路故障检测定位技术较为了解,能够针对实际线路检测中存在的问题,利用光纤网络、视频以及其他多种线路状态信息综合进行故障检测定位,表明该生具备运用多学科专业理论知识解决实际工程问题的能力,具有较扎实的专业基础和较强的科研能力。,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +262,该论文针对大型变压器用普通片式散热器散热效率低的问题,采用改变普通片式散热器油道长度和在片式散热器表面冲压四面体花纹的方法,对新型片式散热器油侧和空气侧的换热性能进行研究,分析了四面体花纹自身结构参数与布置方式对新型片式散热器散热效率的影响。论文选题合理,研究结论可为进一步提出大型变压器的散热方案提供参考。论文的研究内容表明作者掌握了本领域一定的基础理论和专业技能,具备了一定地独立从事科学研究的能力。论文思路较清晰,图标格式较规范。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +2900,论文针对汽车零部件的损伤检测问题,提出了采用基于压缩感知的导波无损检测方法进行检测。以铝板的LAMB波频散曲线图作为损伤检测的依据,对无损检测定位方法进行数值分析,对压缩感知的无损检测算法测量矩阵的构建方法进行了有效改进,并构建优化了测量矩阵,最后对定位方法进行仿真分析。仿真研究结果证明了该方法的可行性和有效性。论文结构层次安排合理、逻辑较为清晰、仿真结果可靠,达到硕士论文所规定的要求。可以参加硕士论文答辩。但论文存在以下问题,请参考修改:1、英文摘要存在一些时态和语法错误,请通篇通读修改。2、文中的表欠规范,比如表3-1,需要按照论文规范修改成三线表。3、文中的好多图的标题不合规范,比如图3-5、3-6两个图中的对应关系不明晰,需要给子图标注信息,加上图的二级小标题及序号,比如a***图,b***图。请全文按照规范格式修改。4、图3-11中各条曲线区分度不够,请参照图3-11修改。5、流程图4-2菱形框内去向表达不够清晰,加上是或否。6、文中用作分析的铝板的例子,从结构上看,稍过简单,若有其他示例可补充,充实论文。请参照以上修改意见进行修改完善。整理后可以进行硕士论文答辩。,0,0,-1,0,0,0,-1,0,1,0,1,0,0,0 +1119,本文采用逆向设计的方法反求某重载无人机旋翼上的进口弧齿锥齿轮设计过程,选题具有一定的创新性和实用性。全文阐述了弧齿锥齿轮的基本设计原理,使用三维扫描仪扫描齿坯并结合软件测量方法获得齿坯基本参数。该方法能克服传统齿面参数采样效率低的问题,获取的数据准确可靠。最后通过对设计齿轮进行动态激励分析、冲击分析以及模态分析等来进一步确认设计结果,确保设计的有效性。全文内容基本完整,选用的设计工具合理,设计结论基本正确,表明作者基本掌握可科学研究的基本要求,具备一定的科研能力。,0,1,0,0,1,1,0,0,0,1,1,0,0,0 +1020,“永磁同步电机参数辨识”是电机控制领域的研究热点。该课题具有一定的学术研究价值和工程实践意义。论文作者查阅了一定的文献资料,论文综述部分基本反映了本课题领域国内外的研究现状。 论文围绕“永磁同步电机非线性参数辨识”的原理与设计方法进行了详细的阐述:设计和推导了永磁同步电动机的非线性参数辨识模型;建立了系统仿真模型并进行了仿真验证与分析;搭建了实验平台并进行了一定的实验验证。 文中理论分析部分详细具体,研究方法基本正确可行,并进行了一定的验证工作。书写结构合理,语言基本流畅,图表、公式规范性需加强。论文作者掌握了一定的专业理论知识,具备了一定的独立从事科研工作的能力,基本达到了硕士学位论文要求。,0,1,1,0,1,1,-1,1,1,1,0,0,0,0 +429,论文对圆柱形锂电池圆周面缺陷在线检测方法进行研究,选题具有一定的理论意义和应用价值。 论文在对相关领域国内外研究现状进行分析的基础上,主要开展了以下几方面工作: 1.提出了覆膜圆柱形锂电池圆周面成像方案,研制了相应的成像系统; 2.提出了覆膜圆柱形锂电池圆周面凹坑检测方法; 3.设计了人机交互界面,能够满足不同色彩覆膜电池圆周面凹坑检测的转换需求; 4.给出了圆周面字符串,或者条形码,或者二维码的定位方法。 论文撰写条理清晰,层次分明,符合科技论文写作规范。论文既有理论分析,又有实验验证,作了大量实验。论文工作表明,作者具有扎实的理论基础和系统的专业知识,有一定的独立从事可以工作的能力。 论文达到了硕士学位论文的要求,可以进行答辩。,0,1,0,0,1,1,1,1,0,1,0,0,0,0 +1947,论文针对园区能源互联网系统进行了优化调度研究,介绍了国内外园区能源互联网的现状,根据园区内的能量流动关系建立了电负荷、热负荷及冷负荷的能量平衡方程和以园区日运行成本最小为目标函数的园区能源互联网调度模型,在园区能量约束中加入松弛变量,并通过对等式转化将不确定性约束变成确定性约束,建立了园区能源互联网的弱鲁棒优化调度模型。论文选题结合工程实际,论文作者有一定独立从事科学研究的工作能力,论文写作条理基本清楚,格式基本规范。,0,1,0,0,0,1,1,0,1,0,0,0,0,0 +1979,"镁合金大塑性变形工艺细化合金晶粒和调控织构,进而改善组织和力学性能是镁合金研究的热点。本文针对镁合金热挤压剪切过程变形机理和织构演变的问题,以其变形机理和组织性能为研究目标,系统研究热挤压剪切过程中镁合金材料流动的变形机理和织构的演变过程,以及变形后镁合金在室温压缩下的孪晶和位错演变机制及变形行为。论文选题新颖,有重要的理论意义和实用价值。 本文作者查阅文献广泛,掌握了本学科领域的前沿知识,具有较强的的文献资料查阅能力和综述能力。在此基础上,作者以Mg-3Zn-xCa-0.6Zr(x=0, 0.6, 1.2, 1.8wt.%)合金为研究对象,设计规划了切实可行的实验方案并予以实施。系统研究了热挤压剪切过程材料流动的变形机理以及微观组织演变规律,相组成及力学性能。 论文作者具有本专业扎实的基础理论和广泛的专业知识水平;有较强的解决问题能力,具备了一定的科学研究能力和独立工作的能力。本论文研究方法正确、数据翔实、分析合理,结果正确;具有重要的实用价值。 论文作者概念清晰、分析合理;实验工作量大,论文章节结构合理,逻辑性强,论文写作规范、文笔流畅、图表清晰。 综上,论文达到了硕士学位论文水平要求,同意组织论文答辩并建议授予硕士学位。",0,1,1,1,1,1,1,1,1,1,1,1,0,0 +3011,在产品日趋同质化、技术易模仿和追赶的环境下,品牌对企业获得竞争优势的重要性不言而喻。我国的汽车行业经历过一段快速发展后在2017年市场占有率达到顶峰,但2018年后持续下跌,其中,汽车品牌劣势也是其中原因之一。因此,文章在基于经典模型改进的基础上,对我国汽车品牌的价值进行详细而全面的研究具有重要的意义,不仅可以拓宽品牌价值研究的理论探索,同时也可以为同类企业的实践提供经验支持,具有示范意义。文章占有资料丰富,综述还算全面条理,述评贴切,主要运用模型构筑和案例应用的方法,获得了尚算丰富的研究结论,达到了预期的研究成果,反映作者基本,掌握了专业基础理论,并能在指导教师指导下从事科学研究工作。文章方法运用较合理,结论、观点较明确,提出了对解决实际问题具有一定参考价值的新见解,工作量适中,达到了硕士学位论文的工作量要求。论文公式符号的使用恰当。1、第二章的题目值得商榷。整个第二章的内容都是文献综述,标题中的理论概述从哪里体现?文章的重大漏洞还在于只对两个重要关键词“品牌”和“品牌价值”进行了综述,但是没有对它们在本文中的含义进行界定。2、论文28页根据净利润走势图得出的结论太过牵强。即使剔除异常值年份,2012—2018年的净利润也是“M”型而非固定增长型,2018—2020年间的观察期太少很难得出客观的结论,且就现有数据看谈不上稳定。据此,对未来趋势的预测说服力也不强。3、在对案例进行分析的时候,公式前后项之间不一致。作者已经把P修订为预期收益而非沉淀收益,但是30—37页的在分析品牌效应系数的时候,无论是30页的基本介绍,还是37页的总结,都用了品牌对企业的沉淀收益的影响程度,请解决这个矛盾。4、论文提出对模型进行修正的立论之一是沉淀收益不好测算。但是在第40页又计算出了东风汽车的沉淀收益,否定了前文的立论。5、世界品牌实验室的结果是否更科学权威?如果是,文章建立新模型的意义何在?如果不是,且二者模型参数差异较大,那么这个结果是否可作为参照物?是否具有可比性?作者作出相差11%处于可接受范围的结论是否有理论依据还是主观确定的?请在论文中对这些内容解释清楚。,0,0,1,0,1,1,0,0,0,1,1,1,0,0 +1425,该硕士学位论文开展了富马酸酯类衍生物的合成和抑菌性能研究,论文选题具有一定的实用价值,对现有富马酸酯类产品的应用改良具有参考价值。 论文首先总结了富马酸酯类产品的应用和一些非对称富马酸酯的国内研究进展,其他国家的研究和相关专利等方面的内容鲜有提及。论文随后采用常规的酯化和酯交换反应,制备了3个富马酸单酯和不同取代的5个富马酸二酯。采用红外吸收光谱、核磁共振光谱、质谱等手段确证了产物结构。随后研究了这些富马酸酯对大肠杆菌和金葡萄糖球菌的抑制效果,得到了一定意义的结果。 论文思路明确,实验工作量尚可。论文写作条理清晰,文字表达流畅。但是论文存在很多明显的科学错误。需要纠正之后方可答辩。,0,1,1,1,0,0,0,-1,1,0,1,0,0,0 +1353,该论文以XM煤矿为研究对象,探讨了XM煤矿绩效评价问题,选题具有一定意义。论文回顾了业绩评价的相关研究文献,介绍绩效评价和平衡计分卡的相关理论,阐述了平衡计分卡的基本原理,设计了煤炭行业平衡计分卡绩效评价的指标体系,并采用设计的平衡计分卡评价体系评价了XM煤矿的业绩。 论文结构合理,内容完整,文字较为通顺,案例选取具有典型性,研究方法科学,案例分析较为客观,逻辑比较严谨,理论联系实际,从论文写作反映作者基本掌握了本专业的基本理论和基本知识,论文达到硕士学位论文水平,同意参加论文答辩,并建议授予管理学硕士学位。,0,1,0,0,1,0,0,1,1,1,0,0,0,0 +575,论文以曙光汽车有限公司自主研制的同轴直联车桥为研究对象,对电动汽车车桥可靠性分析进行系统研究,取得主要成绩如下:1. 建立了简化三维模型,进行了有限元分析、疲劳寿命分析、可靠性能分析等,并根据结果进行了改进设计。2. 对车桥三维模型,通过四种典型工况下的受力分析,初步确定了应力集中位置和结构存在的问题,并修正了车桥材料的S-N曲线,使用已有成熟理论对桥壳进行了疲劳寿命分析,确定了已有结构在使用寿命上的不足,为可靠性分析奠定了基础。3. 可靠性分析中,对使用的理论和方法和有限元分析软件进行了详尽的介绍,根据前述疲劳寿命分析结果中的关键因素进行了可靠性分析输入输出的设置,得到了各变量对车桥可靠性的影响程度并进行了深入的分析;此外还对车桥进行了灵敏度分析,并根据可靠性分析结果进行了针对性的优化设计,有限元分析结果证明了优化的合理性。4.该论文较为完整地实现了所研究电动汽车车桥从分析到优化的流程。 综上所述,认为作者已经较好地掌握了本专业基础知识,具备了较强的科研能力,基本达到硕士论文要求,建议先安排硕士论文答辩,然后根据答辩意见和本评审意见中要求对论文进行修改和补充。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +201,"堆焊属于广义上的增材制造范畴,也是该领域的关键技术之一。作者阅读了大量国内外有关堆焊技术、耐磨复合强化合金及硬质相等文献及进行了系统评述,了解该领域的研究动态。论文选题具有较好的科学意义与工程应用价值。 论文进行了系统研究工作,通过带极埋弧堆焊和明弧自保护药芯焊丝堆焊两种方法制备了耐磨复合强化合金,采用带极堆焊方法制备了含复合碳化物的强化合金,采用明弧自保护药芯焊丝堆焊方法制备了Fe-Cr-C-N-Al和Fe-Cr-C-N-Ti两种合金体系的复合强化合金。研究了不同种类的硬质相对强化合金的显微组织,硬度和耐磨性的影响。论文研究取得了一些研究结果如下: (1)研制了Fe-Cr-C-N-Al系和Fe-Cr-C-N-Ti系耐磨堆焊药性焊丝。其中Fe-Cr-C-N-Al系药芯焊丝制备的复合强化合金硬度最高可达64.5HRC,磨损失重为0.074g;Fe-Cr-C-N-Ti系药芯焊丝制备的复合强化合金硬度最高可达63.4HRC,磨损失重最小为0.106g。 (2)以SiO2-CaF2-Al2O3-CaO-MgO为主要渣系的堆焊焊剂,当含量分别为SiO2(23%)CaF2(25%)Al2O3(25%)CaO(7%)MgO(5%)时,采用带极埋弧堆焊实验制备复合强化合金,其脱渣性,稳弧性和成形性达到最佳。主要硬质相以(Cr,Fe)7(C,N)3复合碳氮化物为主,其弥散程度和数量影响强化合金硬度和耐磨性。 (3)通过药芯焊丝堆焊方法制备了Fe-Cr-C-N-Al系耐磨复合强化合金,复合强化合金的显微组织为针状马氏体+残余奥氏体+共晶碳化物+AlN陶瓷硬质相;AlN陶瓷硬质相的存在提高了复合强化合金的耐磨性能。 (4)采用明弧自保护药芯焊丝制备了Fe-Cr-C-N-Ti系复合强化合金。强化层中原位合成Ti(C,N)碳氮复合物和共晶碳化物M7(C,N)3,M23(C,N)6;随着钛含量的增加,强化层中Ti(C,N)碳氮复合物的数量逐渐增加;当Ti质量分数为18%时,强化层达到最佳耐磨性能;Ti(C,N)碳氮复合物与共晶碳化物共同组成耐磨骨架,提高强化层耐磨性能。 论文研究方法合理,数据分析及处理规范,结论合理。 论文内容朴实,论文结构合理,条理清楚,书写规范。 论文表明作者具有比较扎实的本学科及相关领域理论基础和系统的专门知识,具有一定独立从事科学研究与技术工作的能力。 该论文已达到硕士研究生毕业论文水平。",0,1,0,0,1,1,1,0,1,1,0,0,0,0 +1842,论文以云南白药为研究对象,从轻资产盈利模式的基本理论出发,分析了云南白药公司的基本情况和企业在此种盈利模式下的财务特征,再对盈利模式的构成要素进行逐一分析,然后对比同行业企业相关指标,评价云南白药轻资产盈利模式的实施效果,根据上述分析总结云南白药轻资产盈利模式存在的问题,然后针对这些问题提出优化建议。 论文选题具有实用价值,作者能够运用专业知识分析问题。研究结构完整,条理清晰,作者有一定的科研能力,能够通过研究得出相应结论,部分结论具有实际意义。但尚有需要完善之处。,0,1,0,0,1,1,0,0,1,0,1,0,0,0 +1390,该论文针对蒸汽溴化锂吸收式热泵,建立了性能分析模型,在此基础上分析了热网供水温度、蒸发器余热水进口温度和驱动热源温度三个因素对热泵系统COP的影响。以某供热小区为例,进行了机组容量优化配置。利用?分析方法比较了单效和双效溴化锂吸收式热泵的性能。最后在一个工程案例中,对吸收式热泵余热回收供热和燃气锅炉供热系统进行了技术经济比较。 论文围绕蒸汽溴化锂吸收式热泵供热系统进行了相关研究,但各章节间逻辑关系有待加强,对研究结果的阐述还存在问题,建议认真修改后参加答辩。,0,0,0,0,0,0,0,-1,-1,0,0,0,0,0 +654,论文主要针对植保机钟摆式喷杆悬架系统输出角度控制进行研究,其选题具有一定的理论意义和实际应用价值。 论文选取一种常见的植保机钟摆式喷杆悬架系统,采用第二类拉格朗日动力学方程对该系统进行数学模型的建立; 设计了基于最优控制的鲁棒输出镇定控制器和鲁棒输出跟踪控制器。针对不同路面坡度及喷杆角度工况,通过MATLAB仿真实验,验证了控制器的有效性与鲁棒性。 论文结构比较完整,语言规范。作者已具备较系统地专业知识和基本的科学研究能力。,0,1,0,0,0,1,1,0,0,0,0,0,0,0 +661,论文作者考察了臭氧氧化和电催化氧化预处理对超滤膜分离效果和膜污染的影响,证实电催化氧化预处理效果较好。进一步对电催化氧化的影响因素进行了考察,认为BDD电极效果最好。研究结果对超滤膜分离预处理工艺提供了一定的参考价值。本论文撰写较为规范,语言较流畅,但工作量稍少,对科学问题分析和讨论较深刻,在创新性和学术水平方面已达到了硕士研究生论文的要求,是一篇合格的硕士学位论文。同意进行论文答辩。,0,0,0,-1,0,0,1,1,0,0,0,0,1,0 +138,本文以“PD 集团股权激励方案改进研究”为论文题目,选题符合会计硕士专业学位研究生选题要求,具有较大的实际应用价值。 研究目标明确,研究方法可行;文献评述基本得当,对本学科的基本理论和研究动态有一定的了解;论文工作量较为充足;论文结构较为合理,逻辑性较强,研究结论对同类企业具有一定的参考价值。基本达到了会计硕士专业学位研究生学位论文水平要求,同意修改后进行答辩。,0,1,1,1,1,0,0,0,1,1,1,0,0,0 +501,论文选题有一定新意,能结合所学图像处理知识和现实生活中所存在的医学问题,对干眼检测的问题进行了较为深入的分析和研究,具有较强的现实意义; 论文的逻辑合理,内容结构上安排比较严谨,条理分明,上下文衔接通顺自然,格式比较规范,但参考文献引用近三年文献不多,无法显现作者工作的前沿性; 文中涉及较多图像知识,能结合成一套系统方法并解决实际的问题,说明作者具有一定的理论基础知识和实践应用能力,但是文章大段叙述相关的知识,使用的方法创新度不高,创新部分不多,发表记录档次一般。如果从应用转化角度来看,至少应该具有专利申请工作。,0,1,-1,0,0,1,1,1,1,-1,0,-1,0,0 +1785,论文以17-4PH 不锈钢的选区激光熔化成形为研究对象,对两种不同粒径分布状态下的粉末进行选区激光熔化成形。研究了选区激光熔化工艺及热处理对17-4PH不锈钢材料致密度、显微硬度、室温力学性能及微观组织的影响。论文选题具有较好的实用价值,论文工作量比较饱满,条理比较清晰,试验设计合理,取得了一定的研究成果,发表了相关成果和申请专利。但论文创新性有所不强。论文对17-4PH 不锈钢3D打印成型有一定的参考价值和借鉴意义。 同意论文答辩。,0,1,0,1,0,0,0,0,1,1,1,1,0,0 +914,该论文研究视角符合专业研究领域,但是选题未能凸显专业实践性,该论文文章框架结构层次尚可,专业知识技能掌握有待提高。构思不够严谨,写作较为马虎,未能凸显专业硕士所具备的专业技能与素养。第二章建议简化钢琴伴奏演奏分析,而是突出如何结合演唱进行伴奏分析,目前较为混乱,第三章分析不够精准,对于民族声乐演唱的声腔艺术理解不够,对于舞台表演理解浅显,演唱部分相对单薄,演唱核心技术润腔部分还是未能提及,希望能够认真修改。,0,-1,0,0,-1,-1,0,-1,-1,0,0,0,0,0 +498,论文选题有较大的理论意义,对科学发展、科技进步或社会文化发展起到较大作用。阅读资料很广泛,能够掌握课题的国内外研究动态及其评述,对本论文所要解决问题的目的及意义论述清晰,研究方向比较明确。研究成果有较大理论意义,有部分创新点,论文难易适当,做了大量有效的工作。有较强的独立从事科学研究的能力,能够独立完成论文中的相关工作,较好掌握了课题相关的专业理论知识。条理清楚,概念清晰,分析严谨,逻辑性强;得出的结论合理;论文撰写规范,有较强的文字表达能力。,0,1,1,1,1,1,1,1,1,0,1,1,0,0 +733,为了强化核电轴套材料A473M 马氏体不锈钢表面的耐磨、疲劳性能及表面质量,本文选用滚压加工的方法对其进行表面强化处理,论文选题具有一定的新颖性和针对性,研究目的明确。本文采用不同的组织结构表征方法和性能测试手段,研究了不同压下量、进给量滚压加工后A473M 马氏体不锈钢的组织及力学性能,得到了优化的滚压加工工艺参数。论文撰写基本规范,采用的理论和试验方法正确,数据结果分析得当,并发表了学术论文,表明作者掌握了本学科的基本理论和知识,具有独立从事科学研究工作的能力。同意参加硕士学位论文答辩。,0,1,0,0,1,1,1,0,0,1,0,0,0,0 +2467,该论文选题来源于实践,具有一定的应用价值,作者能够综合利用相关理论知识,选择合适的研究方法,开展选题研究。论文运用的研究资料较为翔实,资料运用合理、得当,论证充分,符合专业特点,研究工作较为深入,工作量相对饱满。研究成果具有一定的应用价值,有一定的实践指导意义。论文逻辑较为清晰,结构较为合理,层次分明,形式较为规范,达到了硕士学位论文水平。不足之处是论文中的个别语言,如P/18的“比如,他相信,一个...”,P/40的“本文针对于爱奇艺进行研究”等,建议认真修改后答辩。,0,1,0,1,1,0,1,-1,1,0,0,1,0,0 +1382,该论文针对辽宁友谊宾馆,分析后评估影响因素,从能源、技术、经济、环境和社会五个角度提出大型公共建筑能耗后评价指标体系,包括3个指标层、19个分项指标。通过比较,选择模糊综合评价法作为后评价方法,使用综合赋权法和熵技术法确定了指标权重。根据监测数据进行了定量计算,得出该宾馆评价得分87.15. 论文围绕公共建筑能耗监测和后评价展开研究,研究目标明确,逻辑较清晰,但对部分研究内容阐述不够清楚,建议修改后答辩。,0,0,0,0,0,0,0,-1,1,0,0,0,0,0 +591,"论文在设计一个较完善的中小学在线学习系统的基础上,论述了该应用性课题的国内外现状与需求分析,同时论述进行了系统的总体设计与详细设计以及技术开发过程,系统能够进行在线教学的基本教学业务数据的管理和进行学生测评的后台控制和信息的统计与分析等功能,并注意到数据的安全性问题。论文逻辑较为完整,思路清晰,也适应了国家倡导教学信息化与推进教育公平以及共享优质教学资源的实际需要,因此应用型论文研究有实际意义,同时行文比较规范,图表有用合理。 综合评价论文水平为""一般""等级(70-79).",0,0,1,0,0,0,1,1,1,0,0,0,0,0 +2183,作者以“Mg-7Zn-xCu-0.6Zr合金热裂行为及机理”为题做研究,设计开发了具有低热裂敏感性、高流动性的镁合金,通过对其凝固路径的分析来研究热裂行为和流动机理,并借助外加交变磁场,来研究磁场对合金热裂敏感性的影响规律。选题具有重要的理论意义和应用价值。 纵观全文,研究内容丰富,研究方案较合理;图表较清晰,符合规范;并获得了一些创新性的结论,论文达到工学博士学位论文水平。,0,1,0,1,0,0,1,0,0,0,0,1,0,0 +1535,利用脑电图构建脑部神经活动的网络是近些年研究的热点,毕竟这是一种容易实现并且无创的方法,当然,如何从复合的,污染的,复杂的皮层电信号中间提取出明确的信息,甚至定位到空间位置,这就是研究的关键了。论文工作的核心是基于神经计算模型的因果网络分析,这也是一种合理的设计,结果也基本证实了这个方法的有效性,当然,从应用的角度来讲,数据量偏少。,0,0,0,-1,0,0,0,0,0,0,1,0,0,0 +2725,论文选题具体,回应了现实需求,具有实践价值。社工理论和实务方法运用适当,小组工作过程比较完整,实务过程与理论基础结合较好,服务方案设计合理、完整,实务方法和过程具体、详实,小组活动各阶段具有层次性和逻辑性,研究结论比较客观,体现了社会工作的专业性。论文的不足之处在于,对服务对象的抗逆力调查不够充分;服务对象的现状,是精神障碍患者照顾者这一身份带来的,还是照顾者自身的问题与表现?本文对此没有很好区分。另,小组活动设计的目标、理念及依据,需要深入挖掘。该论文结构完整,层次分明,语言流畅,资料和数据较为丰富详实,体现出作者较高的专业水平和研究能力,达到硕士学位论文水平!,0,1,0,0,1,1,1,1,1,1,0,0,0,0 +2331,本文选取了2016-2020年全部A股上市的470家符合本文定义的家族上市公司为样本,基于社会情感价值视角将家族权力涉入分为所有权涉入、所有权集中度与管理权涉入三个方面进行研究,分析其对家族企业价值的影响,同时分析国际化深度与国际化广度在家族权力涉入与企业价值之间发挥的调节作用,具有一定的创新性,对家族企业这一研究领域有着一定理论意义与实际意义。论文逻辑清晰,结构合理,形式规范。达到资产评估专业硕士学位论文要求,同意答辩。修改意见:如果能从家族企业行业分布、区域分布等进行异质性检验,论文可能会有更多有价值的结论和分析。,0,0,0,0,0,0,0,0,1,-1,0,1,0,0 +952,论文选题聚焦于中国-苏丹事业单位改革政策发展比较研究之上,选题符合行政管理专业研究的选题要求,并且选题具有一定的理论研究价值和现实指导意义。论文的文献梳理较为清晰,所提出的观点基本准确,能够对中国和苏丹的事业单位改革工作进行细致的地分析和比较,并在此基础上提出相应的见解。所形成的研究结论也具有一定针对性和指向性,对未来中国和苏丹事业单位的改革工作能够产生一定参考借鉴和指导作用。论文全文的文字基本顺畅,语法逻辑基本正确,从整体上看该论文基本达到硕士学位论文的基本要求,建议修改后参加答辩。,0,0,0,0,0,0,0,1,0,0,1,0,0,0 +2860,论文以同道猎聘为例基于用户价值探讨了互联网企业价值评估问题,研究主题具有一定的理论意义与较强的现实价值。论文文献资料丰富,合理分类进行梳理总结,阐述全面,评价中肯,反映出作者较好把握了该领域研究前沿动态,具有较好的文献综述能力。论文运用二叉树期权定价模型与EVA估值模型相结合对同道猎聘企业进行估值,案例研究内容充实,论点较突出,论文结构全面,思路清晰,条理性好,研究方法运用得当,案例数据丰富、分析全面,建议有一定针对性,结论实用。反映出作者具有一定综合应用所学理论知识解决现实问题的能力。文笔流畅,写作基本规范。工作量充实,达到硕士学位论文水平。论文不足与修改建议:(1)摘要部分建议分两个或者三个自然段阐述,分别阐述研究背景与意义、研究内容、创新点等。(2)研究意义部分建议按照理论意义和现实意义两部分小标题后再分几条分别阐述。(3)结构方面,建议将绪论中的创新点放置在第一章的最后;建议结构上按照逻辑关系体现出选择该估值方法的理由,有个过渡,而不是直接构建个模型。(4)注意格式细节,比如全文的四级标题“1.”“2.”等段首应该空置两个汉字格。,0,1,1,1,0,1,1,1,1,1,0,0,0,0 +391,论文采用蒙特卡洛模拟,研究了石墨烯纳米带磁性和热力学性质。计算结果中展示了交换耦合作用和晶场各向异性对平均磁矩、磁化率、内能、比热等物性的影响。从论文看,作者完成了大量的计算工作量,并取得了一些有意义的结果。但作者缺少对计算结果的物理总结以及对其物理意义的讨论。对模型的描述也不够充分,特别是模型的物理背景。,0,0,-1,1,0,0,0,-1,0,0,1,0,0,0 +2934,热管理系统作为混合动力总成核心子系统之一,对总成的经济性、安全性、可靠性等性能具有重要影响,课题选题合理;文章阐述了混合动力总成让管理系统国内外研究现状,表明作者对本研究领域知识有一定了解;作者基于理论分析、数值计算和实验相结合的方法,对某混动SUV动力总成热管理系统进行了建模、参数匹配、仿真分析和实验验证,表明作者已基本掌握相关专业知识,具有独立进行科研工作;论文达到硕士学位论文水平要求,同意答辩。2.不过论文仍存在的一些问题:(1)论文排版不规范,建议规范;(2)文献综述方面一是不全面,二是缺少对研究现状问题的凝练;(3)电池产热机理模型不完善,缺少SOC这一关键影响参数;(4)论文仿真分析工况过于简单,缺少对复杂极限工况、瞬时变工况等方面的分析和实验验证。,0,0,-1,0,1,1,-1,0,0,0,0,0,0,0 +1031,1、本文研究了垃圾填埋场地基沉降条件下衬垫系统受力特性。对不同地基沉降条件下衬垫系统的受力特性进行了研究,提供了新的依据。作者思路清晰,论述过程严谨,分析合理,结果用于实际应用性较强。论文写作规范,语句通顺,达到了学校对学位论文的各种要求。 2、论文题与论文的内容基本相符,结构完整,语言比较流畅。即或在初稿中除了分段过细外,也没有发现多少严重的语法或拼写错误。作者试图从垃圾土参数、填埋场几何构型参数、衬垫系统参数以及界面参数对衬垫层受力特性的影响寻找不同地基沉降条件下衬垫系统的受力特性。 3、论文结构完整,各部分基本符合硕士论文的写作规范。论文的选题很好,论文条理清晰、说理充分,观点具有独创性,有一定的参考价值。 4、本论文选题有较强的应用价值,文献材料收集详实,综合运用了所学知识解决问题,所得数据合理,结论正确,有创新见解。另外论文格式正确,书写规范,条理清晰,语言流畅。 5、本论文选题有较强的应用价值,文献材料收集详实,综合运用了所学知识解决问题,所得数据合理,结论正确,有创新见解。另外论文格式正确,书写规范,条理清晰,语言流畅。,0,1,1,0,0,0,1,1,1,0,0,0,0,0 +3012,在互联网行业“指数式”发展的现实背景下,互联网企业的股权转让、增资融资、兼并重组、承包租赁、风险投资等各种各样的产权交易活动也日趋活跃频繁。而在这些活动中,互联网企业的价值评估成为不可或缺的内容。文章采用蒙特卡洛模拟对EVA计算方法进行改进来评估互联网企业的价值,这种研究不仅有助于推动企业价值计算方法的探索,具有理论研究意义,同时还具有实践借鉴意义和推广价值。文章占有资料丰富,综述还算全面条理,述评贴切,主要运用模型构筑和案例应用的方法,获得了尚算丰富的研究结论,达到了预期的研究成果,反映作者基本掌握了专业基础理论,并能在指导教师指导下从事科学研究工作。文章方法运用较合理,结论、观点较明确,提出了对解决实际问题具有一定参考价值的新见解,工作量适中,达到了硕士学位论文的工作量要求。论文公式符号的使用恰当。1、文章在计算EVA的时候借用了两阶段模型,但EVA是一个综合而非单一指标,受众多因素影响,稳定增长或固定不变的假设并不合理。2、作为硕士论文,没有必要大篇幅介绍EVA的基本理念、调整和优缺点、蒙特卡洛模拟的基本做法以及历史EVA的计算。建议对基本问题简化,突出文章的特色内容。3、财务分析的内容非常突兀,且并不能说明为什么选择案例企业,和文章前后内容之间关联不大。4、全文立论的基础是论文17页公式3-2,但是,此公式的理论依据或者文献支持是什么?应该在文章中予以解释和说明。,0,1,0,0,1,0,0,0,0,1,0,0,0,0 +886,本文从选题至应用,具备一定的现实意义,对装饰性回纹样作了一定的探讨,写作过程中能综合运用所学知识,较全面分析问题,具备一定综合运用知识能力。文章通篇逻辑性清晰,结构合理,观点表达相对准确,语言流畅,论证方法较合理,各种数据、图表齐备、规范,文献引用相对正确,科学性较强,参考的文献资料符合主题要求。表明该学生具有一定的理论基础和科研能力。但真正属于自己创新的内容还不是很多,部分概念比较模糊,总体上达到毕业论文要求。,0,1,1,0,1,1,1,1,1,1,0,-1,-1,0 +3050,作者广泛查阅了相关无线通讯系统、惠更斯超表面、低剖面及高增益、透镜天线特性的文献,对低剖面高增益毫米波透镜天线展开深入研究,选题具科学意义和工程实用价值。论文的主要研究成果有:1.分析了透镜天线的基本性能以及可以通过调节哪些参数达到对天线性能的良好调控基础上,提出了采用修正的“耶路撒冷”十字惠更斯超表面单元,,以达到对透射电磁波的完美调控。2.对毫米波透镜天线的进行了设计、仿真与测试,将实物测试结果与仿真结果对比,验证天线的低剖面高增益性能。论文写作认真,结构合理、条理清晰、图表规范、设计与分析验证详实。反映出作者具有本学科扎实的理论基础和系统的专门知识,独立从事科学研究的能力强。论文达到了工程硕士学位论文要求,同意答辩。质询及问题:1.参考文献无页码范围的有:[27]、[28]、[32]、[33]、[34]、[37]、[46]、[58]。2.“图2-2平面透镜天线示意图”中文字偏大,图中文字应小于正文的文字,全文尽量统一。3.作者依据惠更斯感应磁,设计了一款新型的超表面单元,对改进后的单元结构参数l0、la的联动情况进行仿真分析;是否能给出改进的依据?列出“改进”的步骤?是否联系第2章,说明改进时用到哪些相关的公式?,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +873, 1.论文《新时代大学生国家安全意识教育有效策略研究》选题具有一定的理论和现实意义。 2.论文通过调查问卷获得第一手资料,为论文写作提供了现实支撑。 3.国内相关文献综述的梳理较为详实,语言较流畅。 4.按照相关理论—现状—存在的主要问题及其成因—解决对策这一框架展开,逻辑较清晰。 5.经过修改,论文语言表述的准确性有了很大提升,论文主题与理论来源也较匹配。 但还存在以下不足: 1.第三章“ 新时代大学生国家安全意识存在问题成因分析”中“师资队伍有待进一步加强”,“高校教学改革有待进一步深化”这些小标题未结合国家安全意识教育。 2.论文第四章“新时代大学生国家安全意识教育有效策略”与论文题目重合,需要修改。,0,1,1,0,0,0,0,1,1,0,0,0,0,0 +3007,在本论文中,作者为解决氧化铁导电性差、氧化钛存储容量低等问题,以第一性原理对C、Fe2O3以及TiO2材料进行了系统研究,并制备出TiO2/C、Fe2O3/C、Fe2O3/TiO2/C等复合纳米纤维,具有高比容量、良好循环稳定性及倍率性能等,可用于为电池负极材料。课题研究具有一定的工程应用价值与理论深度,研究方法得当,能够体现较好的科研能力,研究结果具有一定的创新性,论文写作具有逻辑性、符合规范、格式基本正确。论文存在以下需要认真修改的问题:(1)英文摘要存在问题,如20-30nm、30~50nm、-65.371eV、小数位数不统一;(2)诸如图3-1、图3-2等电镜图片,缺失标尺,请通篇检查并加上;(3)图3中,(a)1.8mL/h,(b)1.5mL/h;(a)1.8mL/h;(b)1.5mL/h;数字与单位之间的格式要统一,请通篇检查并修改;(4)图4-4中,(d)显示的是碳化的纳米纤维,从碳纤维粗细上来看,比其他3个图,放大倍数要大很多,为什么标尺却一样?其他类似的图也存在该问题,作者应当通篇检查,改正类似的问题;(5)部分参考文献的格式不规范。,0,1,-1,0,0,1,-1,0,1,1,0,1,1,0 +2974,文章以城镇居民人均可支配收入为研究对象,选题较为主流,具有一定的现实意义。文章研究架构合理,逻辑主线清晰,文献综述相对全面。文章在实证部分,综合运用LASSO方法、半参数回归模型、随机森林预测模型等,对于研究主题进行了综合性、多维度的定量研究。对于数据、图、表等的运用比较全面,体现了较为认真的研究态度和丰富的工作量。研究结论和政策建议,也比较聚焦,具有一定的针对性。稍感不足的是,论文对于影响因素的机制分析,有些主观和简单,尤其是发电量和人均收入之间的关系,介入的有些突兀,建议增加一些文献支撑或文字阐释。综上,论文写作质量优秀,符合硕士论文要求,可在适当修改基础上予以答辩。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +2692,论文文基于Black-Scholes模型研究浮动执行价格型欧式回望期权定价问题,使用机器学习方法模拟回望期权定价。论文能够综合运用相关的理论知识,逻辑较为清晰,结构较为合理,层次较为分明,综上认为达到硕士学位论文水平。论文存在的问题及不足之处或建议1.摘要中主要研究内容建议进一步进行综合提炼,补充主要研究结果。2.文献综述部分建议进一步补充以往研究还需进一步研究之处。3.第2章较为薄弱,建议补充相关理论在本文中的具体运用或起到哪些理论支撑作用。,0,0,-1,0,1,0,0,0,1,0,0,0,0,0 +242,该论文试图通过脑前额血氧数据的获取,研究使用康复机器人后,人的脑力负荷情况的评价。尽管研究结果并没有给出明确的、可用于准确评价和判断的指标,或者说研究并不是很成功,但作为一个探索性的研究,是不能以结果成功或者失败来判断研究的价值的。尤其是对于一位申请电气工程硕士学位的研究生,以医学方面的研究结果判断论文的价值是不合理的,因此,评阅人并没有考虑这些因素,而只是从电气工程的角度、从普遍认可的培养目标和工作质量对论文进行了评审。 很遗憾的是,单纯从电气工程的角度来看,这篇论文的工作量明显不够。作者并没有在测量仪器或测试方法方面做任何实质性的工作,判别所用的数学方法和指标都是最基本的定义(感觉也不是作者首创的),所做的主要工作只是对数据的处理或综合(尽管结果的可信度和指导意义不大——这些并没有作为评估论文质量的因素)。另外,作者在数据处理上也没有任何的创新性。 可以这样认为,就是这个题目如果没有更多的电气工程方向的工作可做,这个选题是失败的;或者说,针对这个题目,作者在电气工程方向上没有做出什么有实际意义的工作,因而无法评价作者相关学科知识的掌握程度。 在论文的书写方面,规范性、逻辑性很差,主要表现在每章起始都没有主旨段落,各级标题之间都没有引导段落,有些2级标题的内容,都不超过一页,甚至有的只有区区几行,例如2.2、2.3、3.3、3.3、3.4。论文总体表现可概括为没有思想、没有方法、没有(电气工程专业的)工作量、结论模糊。,0,-1,0,-1,-1,0,-1,-1,-1,-1,-1,-1,0,0 +2516,该篇学位论文以当代歌剧中男主角唱段为研究对象,从创作背景、人物角色性格刻画、唱段的音乐特点、其他歌唱演员的演唱、论文作者的新的演唱逐渐展开,具有层层递进的逻辑性,显示出该研究生具有较强的论文构建与写作能力。当然,文章的中心论点也还是有可以商榷和提升的空间,例如,文章如果能够直接围绕“林生”的人物形象特点进行展开可能会更好,如一边论述人物性格和作品表达的情绪,一边阐释使用那些歌唱技巧来完成作品的演唱,达到塑造人物形象的目的等。当然,这些都可以在以后的学习与工作中逐步修改完善。,0,0,0,0,0,0,0,0,1,0,0,0,0,0 +506,论文选题主要是为了解决HDFS中如何更高效、更准确进行大批量的小文件存储和管理的方法,选题对提升Hadoop中分布式文件管理具有重要意义;论文首先以HDFS 海量小文件存储为研究问题,设计了关联文件合并算法和文件缓存与更新算法,然后在此基础上,为了缓解HAR 归档技术存在的数据块中产生内部碎片和文件体积分布不均的问题,设计了基于队列的小文件合并算法;最后笔者通过搭建Hadoop集群环境,以用户访问记录和txt文本文件为模拟数据,对提出的两个算法进行了模拟实验,并从文件上传过程耗时、DataNode中数据块利用率以及NameNode内存消耗三个方面来分析论文提出的文件合并算法的性能,从缓存文件命中率和单位文件读取时间两个方面来分析提出基于频繁项集合并的文件缓存算法的性能,通过实验对比,验证研究的有效性;对本论文所要解决问题的目的及意义论述清晰,研究方向明确,论文撰写规范,文字表达能力一般。,0,0,0,0,0,0,1,-1,1,0,0,0,0,0 +826,锥双螺杆作为塑料挤出机的核心部件,对其制造工艺进行研究分析具有重要的意义。论文分析了锥形螺旋面的成形原理与锥双螺杆螺杆的加工原理,以螺旋面形成原理为理论基础总结了螺旋线以及螺旋面的成形规律,构建了锥形螺旋面的数学模型,分析了刀具的运动轨迹。论文的创新点:在锥双螺杆几何结构以及啮合特性的基础上,提出了使用圆柱形直柄立铣刀对锥双螺杆进行加工的方法。论文表明作者较好的掌握了课题相关的专业理论知识,有较强的独立从事科学研究的能力。论文条理清楚,逻辑性强,撰写较为规范。,0,0,0,0,1,1,1,1,1,0,0,1,0,0 +2382,本文针对出在线职业教育企业的数据资产特征,通过传统收益法的基础上进行改进,以在线职业教育企业代表之一的中公教育作为评估对象,评估出其数据资产的价值。论文写作规范,资料翔实,运用专业知识和方法解决行业问题,成果具有良好的行业应用价值,使用方法适当,结构完整,理论基础较扎实,使用方法适当,符合专业特点。该论文达到硕士学位论文水平,但存在如下不足和需要修改完善之处:(1)案例分析中的对线上和线下业务的指标权重0.8和0.2的确定依据是什么?未作交代。(2)对于层次分析法和熵值法的赋权结果的差异较大,如营业收入的绝对权重0.32和0.16,如何解释,最终取值为两种方法的均值又是否合理?(3)文章是参考以资产剩余经济寿命期计算数据资产价值的每年流失率为20%,并采用4年作为在线教育企业数据资产收益期。在表5-6中对中公教育2021-2024年企业净利润的预测从24.42亿元减至11.37亿元(2020年为23.02亿元),是否合理(其中,2021年企业年报的数据看,差距较大)?(4)在折现率的计算公式中,固定资产、流动资产和其他资产的占比之和不等于100%。另外公式4-11中运算符号有误。,0,0,0,0,1,0,1,0,-1,1,0,1,0,0 +1298,该论文对渗碳后的G13航空轴承钢进行了不同工艺条件下的渗氮处理,分析了热处理层和材料芯部微观组织的变化,并对其耐磨、拉伸、弯曲疲劳等使用性能进行了测试,最后通过对比分析,总结出了渗氮处理工艺对G13钢使用性能的影响规律。该论文选题具有较强实用价值,作者对领域内相关研究情况较为了解,整体工作量尚可,可以看出作者对材料力学性能及测试等专业知识掌握较好,论文写作规范,逻辑较清晰严谨,数据具备真实性,结论较合理可信,同意答辩,但需根据后面所提建议进行认真修改。,0,1,1,1,1,0,1,0,1,0,1,0,0,0 +2702,论文选题符合该生所修读的资产评估专业硕士研究方向要求。作者收集参考文献68篇,对本方向的相关研究情况较为熟悉。研究思路清楚,选用研究方法得当。通过对三种传统方法的分析,认为收益法对于我国食品制造业的股东权益价值评估较为适用,并采用了FCFF模型进行评估;同时,为反映企业未来某个时期资本结构的变动,引入了动态折现率,具有一定的创新性。论文层次结构较为清晰,语言表达通顺,格式规范。主要不足:一是本文所提出的股东权益价值评估方法主要是针对食品制造业的,但是在论文标题、第三章标题中均未体现;二是文献综述不建议将国内、国外分开写,一般应按照内容进行介绍;三是第7页“研究内容”中,建议删除本文各章节的内容简介;四是个别年代的表述不准确,如第15-17页,多次出现“19年”,实际应为“2019年”。建议修改完善论文。,0,1,0,0,0,0,-1,1,1,1,0,0,0,0 +2258,本课题为了提高逆变电源系统的稳定性和抗干扰能力,以车载逆变电源为研究对象,开展其拓扑结构和控制策略研究。选题具有一定的理论意义和实用价值;论文反映该生对本学科及相关学科领域国内外学术动态有一定的了解;论文提出的技术方法具有一定创新性,具有现实意义;体现学生理论知识扎实,具有分析问题、解决问题的能力,研究方法具有科学性;论文语言表达准确,逻辑性强,书写格式较为规范,还存在如下问题:1、1.3逆变器控制技术的研究现状,分析了逆变控制技术中模糊控制、重复控制、比例谐振控制的使用现状及优点,那么为了服务于本课题的研究内容,它们存在哪些需要解决的问题?研究现状不是孤立存在,而是为我们的课题服务的,建议补充。2、P37图4-6主控电路过于简单,仅仅是一个芯片引脚图?3、P42图4-14、P43图4-15、P45图4-17、P46图4-18程序流程图是否正确,请确认。,0,1,1,0,1,1,1,1,1,1,0,1,0,0 +1602,论文对新能源汽车用永磁同步电机的位置传感器进行分析,给出了旋变方案及无位置传感器控制的方案,论文具有较好的应用价值及工程意义,其研究成果能够为电动汽车发展做出贡献。 论文给出了旋变方波激励和解调策略,提高了旋变精度,同时论文给出了旋变可能出现的故障,并给出了故障检测方法。论文通过matlab搭建仿真模型,进行了旋变解码、故障分析等仿真,并完成了滑模观测器的仿真验证,通过对比获得较好的结果。论文最后通过旋变和滑模观测器的切换,实现了旋变故障情况下的容错控制,保证电机能够在位置反馈故障情况下正常运行。 论文叙述清晰,结构合理,层次清楚,论文表明作者具有扎实的理论基础和独立从事相关工作的能力,论文达到硕士学位论文要求,同意答辩。,0,0,0,0,0,1,0,1,1,0,0,0,0,0 +2439,该论文基于作者参与的真实翻译项目,选题符合翻译专业硕士论文要求。论文以文本类型理论为指导,以《车载摄像头产业深度研究报告》为例,分析了汽车科技类文本的翻译策略,具有一定的理论和实用价值。论文结构总体合理,理论适用,分析得当,格式较规范,不足之处如下:1.摘要包括背景、目的、方法、结果、意义,背景不宜过长,行文应更精炼;2.关键词应体现论文类型,建议加上“翻译技巧”;3.第二章译前、译中、译后的内容界定不够明确,三个小节也不够平衡,应合理划分;4.第四章案例分析逻辑不清,建议分词汇和句法两个层面;5.译文的质量需要有权威评估,应独立成章,置于结论前;6.第五章包括主要研究发现、问题不足、研究意义及进一步研究展望。综上所述,该论文已基本达到翻译专业硕士论文水平,建议修改后参加答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +378,论文《基于 TwinCAT 关节型机器人控制系统研究》选题具有一定的针对性和现实意义。该论文的文献综述部分有相应的文献阅读量,但与题目研究紧密相关学术性的参考文献略显不足,表明作者对于国内外关于基于关节型机器人控制系统研究的发展现状有一定的了解,对于其存在的一些不足之处有所认识。作者首先对关节型机器人控制系统的功能需求进行了详细的分类与分析,在此基础上完成了系统的硬件和软件的系统框架设计,进行了机器人运动学建模及通讯模块方案设计,完成了示教系统的设计。该论文理论研究方案科学可行,方案论证充分,设计思路层次分明,实验数据真实可靠,论文结论正确。该研究结果对于新产品的研发具有实用价值。论文研究工作表明作者已经掌握本学科的理论基础和专业知识,论文结构合理,论述清楚,逻辑性强,图表规范、论文研究工作量饱满,表明作者已具有良好的从事科学研究的能力。论文达到了工学硕士学位论文水平,同意答辩。,0,1,1,1,1,1,1,1,1,1,1,1,0,0 +1318,该论文通过实验来分析稳定化热处理工艺对G13轴承钢性能的影响,表征了尺寸、微观形貌及拉伸等力学行为,制定出了适合的尺寸稳定性热处理工艺参数,旨在提高轴承在加工制造、存放和使用期间的尺寸稳定性,该研究具有一定的工程应用价值。 论文撰写结构合理,层次清楚,文字较通顺,图表较规范。论文工作反映出作者已基本掌握本门学科的基础理论和知识,具有一定的从事科研工作和技术开发的能力。但是论文还存在一些表述和形式上的问题。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2678,论文通过分析标准化种植的柑橘实际果园环境,设计了履带式柑橘农药自动化喷洒系统,并对其关键部件进行了匹配设计与研究分析,在此基础上,对样机在室内、室外不同环境下进行了应用试验。论文研究结果对于柑橘园实现农药的自动喷洒具有一定的意义和价值。建议论文在以下几方面进行修改完善:1.摘要中要给出具体的结论,例如,室外自然风应用试验中“由于自然风的影响,两边柑橘果树的喷洒效果会有不同差异”是什么差异?影响造成的结果?室外逆风试验中也应给出影响程度含有数据的结论。2.P12描述系统工作原理时,最好给出一个系统总图。3.执行的选型需要有依据,需要给出参数设计计算。,0,0,0,0,0,0,0,0,0,-1,-1,1,0,0 +1904,论文针对各种电气火灾发生原因确定困难的问题,开展了一种传送带式金属熔落物涡流分选机的研究,拟通过分选火灾现场金属熔落物,快速查明起火原因,选题具有一定的工程应用价值。 论文工作的主要成果为: 1.建立了金属熔落物涡流力模型和运动轨迹模型,分析影响金属熔落物分选的主要因素。 2. 仿真了金属颗粒的运动轨迹,确定了挡板的设置位置,并实验验证仿真的准确性。 3. 给出了提高分选效率,改进目前涡流分选装置工作参数的方案。 论文写作规范,语句通顺,逻辑性较好。研究工作表明,作者掌握了本学科的基础理论知识,并具有一定的应用能力。,0,1,0,0,1,0,1,1,1,0,0,0,0,0 +491,论文选题具有一定的理论意义和实际意义,论文有一定的创新性,论文反映作者具有本学科的较为全面的基础知识,能够运用本学科知识进行一定的科学研究,反映作者具有独立开展科学研究的能力。 为了提高脑机交互控制假肢的识别率及控制准确度,本文研究脑电和肌电信号的融合。针对运行脑电信号和肌电信号的生理学基础和特点,设计上肢运动脑电和肌电信号试验,对采集到的信号进行预处理,基于小波阈值去噪声法,提出一种改进阈值算法,提离了脑电信号的信噪比。通过经验模态分解得到脑电信号的本征模态函数分量,运用HHT法,对运动EEG信号进行特征提取,提取相关性大的肌电特征值。运用稀疏自动编码器,融合脑电和肌电信号特征,选用支持向量机,对融合信号与单一运动想象脑电信号,进行分类识别研究。结果表明本文提高了动作的识别精度。 论文逻辑清晰,写作规范。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +2193,作者针对真空干泵的应用背景与泵用驱动电机的发展现状,从减少电机转子发热的观点出发,将磁通切换永磁电机应用于此特定场合,提出了一种解决问题的思路, 有一定创新意义。作者对磁通切换永磁电机电机的工作原理和特性进行了推导和阐述,对电机的电、磁、热、力场进行了较为系统的仿真分析, 对相关参数进行了优化, 表面作者对工程问题的解决方法有较为全面的了解, 若能有实验数据支撑则更有意义。文章结构严谨,行文通顺, 体现了作者科技论文的写作水平。,0,1,0,0,0,1,0,1,1,1,0,0,0,0 +211,分级基金是我国资本市场的创新举动,但近年来却随着价格的暴涨暴跌而引发巨大争议,论文研究分级基金的定价和套利机制,选题具有较强的实践价值,同时也有很强的监管意义。 作者系统性回顾了相关的文献,分析了中国分级基金市场现状,使用期权定价公式、蒙地卡罗模拟方法进行了基金定价,并构造了套利定价模型以分析不同类别的套利定价。总体来看,论文的实证设计逻辑严密,思路清晰,方法得当,数据详实,写作规范,表明作者具备较为深厚的专业知识根底和独立科研的能力。,0,1,1,0,1,1,1,0,1,1,0,0,0,0 +3000,一、论文没有达到学术硕士学位论文水平;二、论文存在的问题及不足之处如下:1.论文存在结构性缺陷。从论文的总体结构看,论文的第三章“惠更斯超表面单元的设计及仿真”是论文最核心的部分。然而,相比于表面的单元的设计,将单元综合形成透镜的难度应该更大,需要做更多的工作。因为综合过程成不仅仅是单元的简单排列。当多个单元排列在一起的时候,单元与单元间会存在互耦,且互耦的强弱与单元结构的形式、距离等有关。互耦的存在会对口径面的幅度、相位造成重要影响,进而影响透镜的性能。因此,将单元综合成透镜的过程应该是一个寻找最佳结构的优化过程。然而,作者在其论文中并没有就综合过程进行分析,只是简单的重复了第二章的基本原理。2.论文的逻辑性差,内容组织混乱。对于透镜天线,分析方法主要有光学方法和惠更斯等效原理法。这两种方法的原理是不同的。光学方法利用的是光线的反射定理及折射定理进行分析。而惠更斯等效原理法则是先把口径场等效为辐射电流和磁流,然后基于电流元和磁流元的辐射场进行积分而得到合成场。作者在写作时,把两种方法混为一谈。图2-2和图2-8明显就是光学方法的示意图,作者却将其归入到了惠更斯等效原理法中去了。此外,在第二章介绍惠更斯等效原理法时,存在逻辑顺序倒置的问题。2.3节介绍的是惠更斯等效原理法的基本方法,而前面的2.2节则是介绍基于超表面的惠更斯等效源的相位分布的控制方法。正常逻辑因该是先介绍惠更斯等效原理,在让读者熟悉惠更斯等效原理的基本原理后,再来介绍惠更斯等效源的相位分布的控制方法。这样才具有层层递进的逻辑性。3.论文可能存在仿真结果与结论不一致的问题。作者设计阵面的目的是对来自馈源的球面波进行相位补偿,进而在阵面的表面形成等相位面,以实现高增益。但是图4-6给出的仿真结果却并没有揭示出“通过阵面补偿能够在阵面的表面构建等相位面”这样一个结论。相反的是,图4-6却反映了阵面表面的相位随位置的变化呈现出了0到360度的周期性变化,与阵面的设计目的严重不符!基于此,严重怀疑仿真结果与文字结论不一致!4.论文存在图文不一致的低级错误。2.1节文字介绍的是广义折射定理,而图2-1却是广义反射定理的示意图。在论文第14页公式2-2下面的一行,论文前半句还在讨论折射的问题,后半句毫无征兆的就变成了对反射问题的讨论。图2-10是喇叭天线的示意图,不是天线的等效模型。基于以上原因,严重怀疑存“复制——粘贴”式的抄袭问题!5.论文存在大量的病句,造句的可读性差。如摘要第十四行“首先介绍设计修正的’耶路撒冷’十字架结构单元”、正文第11页第一行“***教授等人设计超表面透镜天线采用单层结构”、正文第13页第三行“毫米波为成像系统和雷达提供高分辨率应用”、正文第13页第十一行“广义斯涅耳定律是传统的斯涅耳定律的延伸,通过分布在分界面的两侧,从而引起的相位不连续”等等。6.公式内部符号的物理意义没有在该符号第一次出现时用文字进行描述。如公式(2-5)、(2-6)中的符号p、m、n分别表示什么物理量?公式(2-7)至公式(2-17)都存在同样的问题。7.论文内容存在重复。图1-2、图2-2、图2-8虽然表面看起来不同,但是都是光学原理的示意图。公式(2-6)和公式(4-1)一模一样。8.全文所有公式的编辑不符合公式的书写规范,而且存在字体大小不一的问题。9.全文大部分图片存在问题。图片的问题主要有三个方面:(1)部分区域存在阴影;(2)图片模糊;(3)图内字体大小不一,部分图片内部字体太小。此外,图片没有严格按顺序编号,图1-12直接就到了图1-14。,0,0,0,0,0,0,-1,0,-1,0,-1,0,0,0 +2070,无效民事法律行为是我国民事法律行为制度的重要内容,民法典对无效民事法律行为的类型进行了规定,但其规定还存在着一定的不足,在司法实践中会引起一些问题。论文以此为研究主题,具有重要的理论价值和现实意义。论文阐述了无效民事法律行为概念、特征及类型划分与效力评价,分析了无效民事法律行为具体的类型,比较了两大法系有关无效民事法律行为类型的规范,指出我国民法典关于无效民事法律行为立法的不足,并提出相应的完善建议。全文论证观点鲜明,结构合理,具有较强的逻辑性,表明作者具有较扎实的专业基础知识,能够运用专业理论来分析问题、解决问题,具有独立的科研能力,论文基本达到了硕士研究生毕业论文的要求。,0,1,0,0,1,1,0,0,1,0,0,0,0,0 +1536,联轴器不对中故障是转子系统常见故障之一,论文针对真实的航空发动机联轴器不对中—双转子系统动力学问题进行了分析研究,选题具有学术意义和应用价值。 论文主要完成下列工作: 1、推导了联轴器平行不对中与偏角不对中力学方程。 2、通过模态分析得出所研究航发双转子系统以横向弯曲振型为主。 3、对航空发动机双转子模型进行降维运算。 4、建立了考虑联轴器不对中故障的航空发动机复杂结构双转子非线性力学模型,采用时域分析方法进行了稳态响应分析 论文结构完整,有逻辑性,语句较通顺,图表较规范,反映该生已具备该专业的基础知识,具有独立从事科研能力。建议修改后进行论文答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2124,在合同法律关系中,由于对方违约导致合同相对方利益受损,是合同违约纠纷中常见的情形,维持各国立法都将在《民法典》“合同编”或“债编”中通过制度设计对受损一方予以救济,违约救济问题历来就是合同编的基本问题之一。对于违约救济这一问题,不同国家通过设立不同的救济制度,施加以不同的救济手段,方式不同,目标一致。由于各国国情不同,违约救济制度在设计时必然出现差异性选择,在《民法典》刚刚实施的当下,论文通过对中美两国的违约救济制度进行比较研究,是一个具有理论价值和实践意义的选题。笔者试图通过对中美两国违约救济制度的比较研究,寻找出差异性的做法,对美国的违约救济制度有一个全面的认识和了解,并在此基础上进行比较分析,来发现两国在违约救济制度立法上的不同之处。不但有利于在涉美交易活动中能够做到知己知彼,而且从中寻求有利的经验,对完善我国相关立法予以吸收借鉴。作者在围绕救济目的、救济原则和救济措施进行概要比较分析基础上,重点对继续履行制度、利益返还制度和期待利益保护制度进行了研究,研究的内容和范围基本上涉及了合同编项下违约救济制度的主要问题。纵观全文,作者观点正确,思路尚还清晰,论文的研究目的基本达成,研究方法相对妥当。,0,1,0,0,0,0,0,0,1,1,0,0,0,0 +1820,论文以马克思主义价值观为视域,对中日集体主义价值观进行比较研究,阐述了中日集体主义价值观的理论基础、共同点和差异,进而说明了中日集体主义比较研究的意义。论文选题基本准确,逻辑基本合理,论证基本有效。从论文的基本立论而言,马克思主义价值观的提法是以马克思主义的世界观和方法论为指导,马克思主义是立场、观点和方法的统一,也是就是世界观、方法论和价值立场的统一,世界观和方法论是价值观的基础,价值观是对世界观和方法论的具体展现,因此,仅把马克思主义价值观作为视域是不够准确的。论文是马克思主义原理方向的选题就更应该呈现马克思主义的核心命题,立足于辩证唯物主义与历史唯物主义的基本问题立论,既可以从经典作家的思想阐释来研究,也可以从马克思主义发展史进行文献梳理与思想阐释相结合的研究,也可以对马克思主义基本原理本身进行深化和推进来研究,这是对马克思主义理论学科的学科自觉的要求。马克思主义基本原理本身涉及马克思主义哲学基本原理、马克思主义政治经济学基本原理和科学社会主义基本原理,既可以进行具体原理的内涵阐释的研究,也可以立足于马克思主义基本原理的整体性建构进行研究。而把马克思主义价值观作为视域本身就限制了马克思主义基本原理的内涵和理论体系的整体性,在不够准确的逻辑前提下进行研究就会存在问题指向不清晰和论文逻辑框架无法支撑论证结论的问题。建议从立论本身进行重新思考,只有建立在准确的立论前提下,才能展现有效的论证和严谨的逻辑,进而获得科学的结论。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2630,论文对甘蔗收割机的输送器进行了轻量化设计,具有一定的实际意义。论文建立了输送器的三维模型,进行了静力学及模态分析;基于线性加权法构建了多工况拓扑优化数学模型,利用Inspire软件得出了优化结果;建立了尺寸优化数学模型,并利用Inspire软件求解;利用仿真软件对优化结果进行了验证分析。论文有一定的工作量。对论文的意见:1、论文建立了优化模型,但直接利用Inspire软件求解,未涉及优化过程的本质。创新性一般。2、底部销轴护板优化后由3mm增加到6mm,但为何质量仍减轻?3、尺寸优化模型中有小于许用应力的约束条件,优化结果应已经满足该约束条件,为何第4章还要进行静力学验证?同时,避免共振也应该在优化时作为约束条件同时考虑,以保证优化结果的可行性。4、论文最好能有实验验证环节。5、摘要的第一段语言叙述表达层次不清。国内外研究现状与本文的研究问题密切度有待提升。6、部分图形过大,图前后空行较多;图1-1在正文中未提及说明;个别语言有误:如“结构优化设计有基本可以采用”,同时,以下三种方案后不应再有“主要为”。,0,0,0,1,0,0,-1,-1,0,-1,0,-1,0,0 +2816,论文以《汽车维修与维护技术指导手册》为翻译对象,运用Newmark交际翻译理论作为指导,从词汇和句法两个层面对翻译方法和技巧进行了探讨。总体而言,论文结构比较完整,对翻译任务的介绍和特征分析比较全面,对翻译过程的描述比较完整。符合硕士论文的基本要求,可以参加答辩。本论文有点突出,但仍存在以下不足:1)本文是指导手册,类似于说明书。语言应客观,因此译文中有些句子稍显主观,比如“youdonotfeelsoft…”(P.66)。2)术语翻译的例子略显单薄,可添加。3)案例分析中的原文和译文可以添加上附录中所在的页码,方便查看。4)案例分析中重点分析的词汇或句子有的加了下划线凸显表示,有的没有加,应统一。5)汉语文献的文内引用,只出现姓即可。6)介绍Newmark的翻译理论时,应多引用他本人的原著,这样更具客观性。,0,0,0,0,0,0,-1,0,1,0,0,0,0,0 +1829,论文以三角模糊数的TDABC在公司成本控制中如何应用进行立题,有一定的理论意义,论文以某公司为例,进一步探索了三角模糊数的TDABC在公司成本控制中的应用,通过案例示范,指出了应用该方法的途径,具有较强的实践指导性。论文使用三角模糊数对时间驱动下作业成本控制模型中涉及到的不确定参数进行科学处理,形成三角模糊数的时间驱动作业成本法,丰富了时间驱动作业成本法理论,通过在制造企业中应用,使制造企业的成本分配更加合理、精准,论文研究成果有一定的新颖性。 论文综述较全面深入,研究方法得当,探索有一定的难度,论文工作量较大;逻辑层次清楚,结构合理,格式规范。论文作者会计理论基础扎实,具有较强的科学研究能力。论文达到了硕士学位论文水平。同意参加答辩。,0,1,1,1,1,1,1,0,1,1,0,1,0,0 +3047,作者对城市道路环境下电动汽车行驶工况识别进行研究,采集了一辆车的行驶数据作为数据集,提出了一种智能混合搜索算法解决行驶工况特征参数选择问题,在此基础上,构建了基于学习向量量化神经网络的行驶工况识别模型。论文选题具有一定的理论和实用价值,对该领域国内外研究现状阐述较清晰,研究方法较为合理,层次较为清晰。意见如下:1、论文撰写方面:英文摘要很多句子不准确;第一章要认真修改,部分段落太长,层次不清晰,国内外研究现状分析有些乱。2、用一辆车的数据进行分析,不够科学,不能说明模型的有效性和性能。,0,1,1,0,0,0,0,-1,-1,1,0,0,0,0 +61,本沦为以AZ31镁合金轧制板材为材料,使用有限元模拟软件,分析拉深工艺参数对镁合金板材的成形性能的影响,采用多尺度模拟与实验相结合的方法分析镁合金轧制板材在多向应力状态下筒形件压边区域、凹模圆角区域、侧壁区域、凸模圆角区域板材内的晶粒取向、织构演化、各滑移系的开动模式,对复杂应力状态下施密特因子进行计算。为拉深成形镁合金轧制板材笔记本外壳的成形工艺提供指导,为生产实际中的广泛应用创造了条件。论文以实际需求为目标,探索其中的科学问题,研究思路正确,对学科知识有较深的掌握,逻辑性强。,0,1,0,0,1,0,0,0,1,0,0,0,0,0 +1008,(一)总体来说,论文符合专业选题和硕士研究生论文写作要求,具有较强的理论价值和现实应用意义,内容较详实,分析完整,运用的理论和实证方法比较恰当。 (二)研究意义方面。论文以中国上市公司为研究对象,主要分析了高管股权激励,企业风险承担与企业创新之间的关系。研究结果表明:上市公司对高管实施股权激励能够提高企业创新能力;对高管实施股权激励有助于减轻高管对风险的厌恶,从而提高企业的风险承担能力。研究具有较强的理论价值和应用意义。 (三)理论分析方面。第二章“相关概念与相关理论分析”内容主要是文献评述的内容,形成自己的理论分析框架内容较少、较简单。 (四)实证分析方面。一些控制变量的选择和测度未注明参考的依据和文献。,0,1,-1,0,0,0,0,0,0,1,1,0,-1,0 +3064,作者在对不良资产及其评估相关文献进行综述的基础上,试图归纳总结银行不良资产相关概念、成因、价值转换路径;分析目前我国银行不良资产及其评估现状;分析假设清算法在银行不良资产价值评估应用中存在的缺陷,把债务企业的偿还意愿和抵押债权变现折扣率嵌入假设清算法的模型中,形成相应的改进建议,并以案例说明其应用。论文有一定的理论价值和实践指导意义。论文选题符合资产评估专业硕士培养要求。作者能够收集和阅读相关文献和资料,并能够恰当运用,文献综述尚可;论文总体逻辑结构尚可,但论证的充分性和严谨性有待提高,表述的精炼性、准确性也有待提高;能够收集和使用我国银行业不良资产相关资料和数据以及案例公司相关资料并进行分析;表述方式注意了多样化,有图有表;格式较规范。总体上,本篇论文因为存在下列问题,尚未达到研究生学位论文要求。主要问题:1.作者缺乏资产评估的扎实理论功底,导致全文缺乏理论分析。作者没有深入、系统地分析影响银行不良资产的内外部因素,没有构建银行不良资产评估的理论模型。2.作者围绕本文主题“银行不良资产价值评估”进行阐述与分析不够,大量文字偏离本文主题。3.P4-P5,作者对研究意义的阐述,存在不当之处:不明确、不突出、不精炼。注意:是你的研究有何理论意义、实践意义?需要简明扼要、明确地提炼研究意义。4.P13,“会计学上对不良资产的判定:一是认定为在资产负债表中核实消除的资产,二是认定为进行集体资产减值准备的资产。”存在两大问题:一是不通顺;二是不符合会计学中的界定。5.P13,作者对银行资产的定义,既不符合一般的定义表述方式,更不简洁、晦涩难懂、不知所云。大量表述不够准确、精炼。6.P14,“3.制度因素”,正文相关分析不太符合我国当前情况,且存在表述不清楚、不准确的情况。7.P14—P18,“(三)银行不良资产价值转型路径”篇幅过长,偏离本文主题。8.P41,表5-2,列示JH公司简要资产负债表,其中货币资金竟高达21.11亿元,占资产总额44.46亿元的47.7%;全部负债合计仅17.90亿元,资产负债率也只有40.3%;货币资金高达21.11亿元,远高于全部负债合计仅17.90亿元。如此好的财务状况,通常不应当出现偿债能力不足的问题。作者未对JH公司未能支付银行贷款进行更具体介绍,让读者难以理解。读者会怀疑:作者对JH公司的介绍是准确、全面的吗?是否存在调查不深入?作风不扎实的问题?9.作者在对JH公司货币资金进行评估时,“企业未提供具体相关资料,故有效资产按账面值列示确认”;对大部分资产进行评估,未核实其真实情况,就简单地“按照账面价值的5%确认有效资产”,即将账面价值的5%作为其评估值。这显然不恰当,表明作者对资产评估程序、职业道德、一般方法缺乏基本了解。10.摘要第一自然段需要大大精炼。,0,1,0,0,-1,0,1,0,1,0,0,0,0,0 +2112,由于氧化铝的形态和尺寸直接影响或确定其性能。比如:球形氧化铝因具有粒度均匀、表面光滑、颗粒磨损小和使用寿命长等优点,而得到广泛的应用。因此,该硕士论文《球形氧化铝的制备、表征及性能模拟》就以制备规则、形貌粒径可控、化学纯度高和高球化率等的氧化铝为其研究的目标。其首先,以硝酸铝为原料,氨水为沉淀剂,利用溶胶-凝胶法和喷雾干燥法制备球形氧化铝粉体。探究了铝盐的浓度、分散剂的种类、溶剂的种类、沉淀剂的滴加速度和搅拌速度、终点 pH、反应温度和陈化时间等因素对该球形氧化铝粉体的影响。接着,再以铝溶胶为原料,采用油-氨柱成型法和旋转成型法分别制备了球形氧化铝颗粒。分别探究了油柱和氨水的高度比、陈化时间、干燥温度和焙烧温度等因素对球形氧化铝粉体性能的影响;以及探究了旋转温度、陈化时间、干燥温度和焙烧温度等因素对其产物——球形氧化铝粉体性能的影响。最后,探究不同焙烧温度对氧化铝晶型的影响,发现了氧化铝的晶型转变过程为:三水铝石→一水铝石 →γ-Al2O3→δ-Al2O3→θ-Al2O3→α-Al2O3。接着,采用 Materials Studio 2019 软件的 CASTEP 模块对不同晶型氧化铝的总能、能带结构、态密度、原子布居值和键布居数进行计算和验证。 该论文选题明确,且具有较大的现实意义;其研究内容较丰富,取得不错的效果。其研究方法较规范合理,其研究成果具有一定的实际应用价值。 该论文条理清晰、层次分明、逻辑性强、文字较通顺、图表规范和符合撰写要求,达到硕士学位论文的水平。,0,1,0,0,0,0,1,1,1,1,0,1,0,0 +1263,对策论,也就是博弈论,既是现代数学的一个新分支,也是运筹学的一个重要学科。博弈论主要研究公式化了的激励结构间的相互作用,是研究具有斗争或竞争性质现象的数学理论和方法,该理论在金融学、证券学、生物学、经济学等众多学科都有广泛的应用。本文立足于合作对策,研究可转移效用合作对策的 Shapley 值和区间支付合作对策及其区间 Shapley值,此选题及研究内容对进一步发展合作对策解无疑具有一定的理论价值。 该文主要做了两方面的研究: 1. 结合可转移效用合作对策的Shapley值,提出可转移效用合作对策的团体贡献 Shapley 值;定义可转移效用合作对策的新的单值解,并对其进行公理化刻画;分析可转移效用合作对策的Shapley值与团体贡献 Shapley 值的区别。 2.利用区间数描述合作对策的支付,研究区间支付合作对策及其区间 Shapley值;以可转移效用合作对策的团体贡献 Shapley 值为基础,结合相关的区间数运算法则及性质,定义区间支付合作对策的区间团体贡献Shapley 值,对其进行公理化刻画;讨论了区间Shapley值与区间团体贡献Shapley 值的关系。 综上可见,作者对基础理论专业知识都能较好地掌握和应用,具有较好的独立从事科研的能力,并且论述过程较严谨,分析合理。另外,论文格式正确,书写规范,条理清晰,语言流畅。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +3001,一、论文选题有一定现实意义,勉强达到硕士论文的水平。二、论文的创新不足。第三章对于EVA模型的构建完全是照搬例论,没有根据本案例情况进行创新文献综述对EVA的梳理依然不够完整,需要补充资料。对专业术语的表述不够准确,比如有的地方将税后净营业利润表述为税后经营利润或公司的税后利润、或者企业税后营业净利润,前后表述完全不一。论文的检验方式:查询2021年12月31日中芯国际的市值,从21年底到现在股价已经跌去25%,如何证明当时的市价是合理的?,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +2750,论文选题具有一定的实际运用价值。能够综合运用相关的理论知识,选择合适的研究方法。研究资料翔实,资料运用较为合理、得当,论证尚可,符合专业特点,工作量饱满。论文写作基本规范,文字表达基本流畅。主要不足之处:(1)摘要写作表达不够精炼,没有突出重点;(2)论文第4章中“SBERT-TFIDF话题挖掘模型的结果分析”内容写得非常冗杂,尤其是从第29页开始,不断地罗列一些结果,让人读起来比较费劲,建议作者高度地凝练表达,类似的地方还有不少,请作者认真检查;(3)论文的对策建议与统计研究结果不能完全契合,并且有的建议过于平淡,难以引起人们的兴趣。,0,1,0,0,0,0,1,1,-1,1,-1,0,0,0 +2219,1、论文对45号钢磨削烧伤的超声非线性检测实验研究,具有一定的理论意义和较好的经济实用价值;2、作者对本学科及相关学科领域国内外发展状况和学术动态有较好的了解;3、论文内容充实,超声非线性检测实验内容丰富,数据详实、结论可信,论文的研究体现了作者较好的分析问题、解决问题的能力;4、论文引文的规范性,学风的严谨性;论文语言表达的准确性、逻辑的严密性、书写格式及图表的规范性;5、达到硕士学位论文水平,同意答辩。6、存在的问题:(1)本文研究内容不应该是完成时,在11页;(2)文中有多处格式问题,如表未居中,行间距不一致,等等,这要加强修改。(3)文中多数图片数字偏小,不清晰,建议修改完善。,0,1,0,0,0,1,1,1,1,0,0,1,0,0 +577,论文以双馈风力发电机状态监测模型为主题,主要针对风力发电机的运行特征与发电机组故障分析、风力发电机组的气动载荷计算与模型仿真、基于混合输入模糊神经网络的状态监测模型仿真以及风力发电机状态监测与异常识别方法等内容进行了研究和分析。给出了利用混合输入模糊神经网络解决分类变量问题的方法和运用多元高斯函数模型解决风力发电机工作异常的识别问题。 论文选题结合实际,符合学科发展方向,具有理论意义和实用价值。 从论文研究可看出,作者了解相关研究领域中的国内外研究动态和发展趋势,研究过程思路清楚,方法科学,分析论证基本合理,反映了作者已较好地掌握了本学科基础理论和专门知识,也体现作者具有较好的从事科研工作的能力。 论文写作认真,条理清楚,语句流畅,工作量基本满足要求。,0,1,1,1,1,1,0,1,0,1,0,0,0,0 +1679,论文通过SolidWorks 三维软件对某离心泵进行建模,采用数值模拟的方法计算其叶轮所受径向力,应用 Fluent 软件对该离心泵在不同流量工况下的内部流场进行数值模拟,得到了各工况下叶轮所受径向力的大小以及随流量的变化规律,研究了不同包角对叶轮径向力的影响。论文研制了一套基于压电式传感器的径向力测量装置,并进行了实验研究,研究表明所采用的数值模拟方法可以对离心泵径向力进行比较好的模拟。 论文采用数值模拟与实际测量相结合的方法研究叶轮所承受的径向力,研究工作对于水泵的设计提供了重要依据,论文选题和所作研究工作具有一定的理论和实际意义。论文体现出作者具有较为坚实宽广的基础理论和系统深入的专业知识,理论结合实际,研究方法科学,数据资料翔实,表明作者具有一定的独立从事科学研究的能力。论文达到硕士学位水平,同意修改完善后答辩。,0,1,0,0,1,1,0,0,0,1,0,1,0,0 +2533,该硕士论文研究了图像检索文本、文本检索图像两个跨模态检索相关任务,并且针对对抗学习在跨模态检索中实值方法和哈希方法两个方向的应用进行算法设计和研究。本文首先探索了图像和文本两个部分的特征提取方式以及对抗学习在跨模态检索领域的应用,然后设计并优化了两种不同的跨模态算法,两种算法分别对应当前跨模态检索实值和哈希两种不同的方向。该硕士论文逻辑结构清晰,文字表达流畅,已达到硕士学位论文水平,建议作为硕士学位论文安排答辩。论文存在的问题及不足:1.在本硕士论文中,公式书写不规范,如公式(4-10)等,需仔细检查并修改。,0,0,0,0,0,0,-1,1,1,0,0,0,0,0 +374,论文《超声波储油罐底腐蚀检测机器人扫查控制系统研究》以储油罐罐底腐蚀检测机器人扫查控制系统为研究目标,根据工业储油罐底在线检测技术要求,提出履带式机器人扫查控制系统的基本技术指标,研究储油罐底腐蚀检测机器人扫查控制系统的驱动算法。结合履带式机器人的控制理论研究,完成了扫查控制系统的硬件系统等功能。论文选题合理,与工程实际应用紧密,具有较好理论研究价值与工程应用背景。文章最大缺点是论文创新点不足,建议进行凝练与增强。,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +2783,论文选题有一定的研究意义,作者调研比较充分,基本掌握了声屏障材料在国内外的研究动态。课题研究思路明确,技术路线基本合理,论文层次较为清晰,文笔较为流畅,数据、图表、参考文献、引用标注符合学术规范,论文整体上达到了硕士论文的基本要求。对论文还存在以下一点疑问(或建议):1、绪论中存在个别用词错误。2、从文中UHPC的配合比来看,则相应的流动性和凝结时间均应采用同一规范的性能试验方法为宜。并且文中关于凝结时间测定结果表达为“试验测得UHPC浆体的凝结时间为40min”,此表述不准确,该凝结时间结果为初凝时间还是终凝时间?3、结论中的“轻质”在文中体现度不明显。,0,1,1,0,0,0,1,1,1,1,0,0,0,0 +780,以并联混合动力汽车为研究对象,采用ADVISOR仿真软件搭建了模型平台,并采用Matlab/simulink工具箱建立了并联混合动力汽车整车的仿真模型,论文工作具有一定的理论意义和实用价值。所设计的发动机、电机能量分配模糊控制器,采用遗传算法优化了模糊控制器的模糊规则和隶属度函数,仿真结果表明,优化后的模糊控制器达到了降低燃油消耗和污染物排放的目的,保证了蓄电池SOC的相对稳定。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +775,研究永磁直驱风力发电系统低电压穿越控制策略对于确保大电网稳定、可靠和安全运行具有重要的意义。论文首先阐述风能捕获的基本原理和风力机的特性,推导出了永磁风力发电机的数学模型以及PWM机侧变流器的数学模型,并采用了 Crowbar 卸荷电路来消耗直流侧的多余不平衡功率,向电网恢复提供无功支持,即实现风电系统的LVRT;另外,利用对称故障正负序分量的原理和常规分离方法实现抑制直流母线电压的波动。最后,通过数值仿真来验证上述方法的有效性。论文虽做了一些有意义的探索,但是论文写作不够严谨,口语化很严重,还出现诸多错别字;论文工作量不够,还难以厘清与前人工作的不同之处以及自己的贡献;图文不够规范等等。故建议作者延期申请答辩,认真修改论文,提高论文质量。,0,1,0,-1,0,0,-1,-1,0,-1,0,0,0,0 +2705,"论文选题符合学科和专业发展趋势,具有一定的理论意义和现实意义;作者对本学科及相关学科领域发展状况和学术动态有较好的了解。论文研究了新能源汽车企业技术创新能力评价及培育路径,得出确切结论,具有一定的理论价值,论文成果对于新能源公司开展技术创新活动具有一定的启示作用。论文体现出作者对学科基础理论和相关知识有较好掌握,体现出一定的分析问题和解决问题的能力。研究方法选用较为恰当,论文结构层次合理,引证资料翔实,引文规范,学风严谨,语言表达准确,逻辑性较好。论文达到硕士学位论文水平。提出以下几点建议,供参考:第一,关于文献综述,选择的视角“(一)(二)(三)(四)”之间相互包含,界限不明确,建议从论文选题关键词之间的关联出发,形成直接相关的文献综述;第二,关于理论基础,(一)包含(二),作为与论文关系最为紧密的理论,对于(二)的表述不充分,有必要进一步丰富内容。",0,1,1,0,1,1,0,0,1,1,0,1,0,0 +119,本文设计了一种智能温湿度传感器的设计与实现,论文基本达到了控制工程硕士的水平 选题意义正确,论文创新点不明显、基本掌握了对控制工程学科知识的,写作规范性达到要求, 逻辑性需要提高。 传感器温度测试误差在±0.1℃以内,湿度测试误差在±1%RH 以内,,测量精度很低了,不能被称为高精度传感器 论文中出线了部分错误 如GSP是什么一直没有说明,有时被误写成了GPS。 摘要里写传感器用于药品行业,但没写出药品行业对传感器有啥要求。 参考文献英文太少。,0,1,-1,0,1,0,1,0,1,0,0,-1,0,0 +1653,论文利用多通道肌电采集系统采集下肢肌肉的表面肌电信号,通过构建神经网络实现对下肢危险动作进行分类,选题具有较强的理论和实用价值。论文从数据采集、处理、特征提取和分类等方面开展研究,取得了有一定应用价值的成果,反映出作者具有一定的独立从事科学研究的能力。论文结构较合理,行文较规范,建议修改后进行答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +881,1.论文《新时代黑龙江省民办高校大学生就业观》选题具有一定的理论和现实意义,具有一定的新意。 2.论文按照概念—相关理论—现状—存在的主要问题及其成因—解决对策这一框架展开,逻辑较清晰。 3.通过修改,语句不通顺、文字表述不规范现象有了很大改观,水平有了较大提升。 4.作者通过调查问卷获得第一手资料,为论文写作提供了现实支撑。 5.对就业观存在的问题、成因以及解决对策也按照修改意见进行了修改,使得对策更加完整、立体。,0,1,1,0,0,0,0,1,1,0,0,1,0,0 +2177,作者对热储能供暖系统的电磁感应加热装置进行了加热体和控制电路的设计,进行了一定的磁场和电路仿真,并简单进行了实验验证。但是论文目前存在一些问题,首先,电磁感应加热装置的设计缺乏一定的创新性;其次,绪论部分阐述国内外现状不足,而且有些偏离论文重心,作者需要重点针对电磁感应加热领域阐述现状;最后,实验工作不足,缺乏与仿真结果的对应。,0,0,-1,-1,0,0,0,0,0,0,0,-1,0,0 +2153,针对于传统GPS难以满足小范围室内精确定位的研究需求,区别于通过仿真数据建立指纹库,本研究论文通过采集参考点处各AP点信号强度作为指纹,并结合K近邻算法、SVR算法和改进神经网络来实现室内定位,研究选题有实用价值,研究过程中输入数据符合实际,对比算法相对简单,改进算法设计及实验结果较合理。 该研究具体算法设计中考虑了过拟合问题,并通过上述两种方法相加权的方法得到新定位坐标,从误差均值、方差方面分别对单独定位和结合定位实验结果进行了比较,实验证明所提方法提高了定位精度,该研究所提的改进方法具有可行性。,0,0,0,0,0,0,0,0,0,0,1,0,0,0 +293,该文根据高速永磁同步电机的特点进行了新型电机定、转子的结构设计,通过有限元软件对新型转子高速永磁电机进行了电磁核算,验证了电机设计的合理性。应用有限单元法计算了不同永磁体层数下的转子应力分布,显示新型转子高速永磁电机永磁体和保护套所受应力明显要小于普通结构的高速永磁电机,验证了新型转子高速永磁电机的结构能够有效地减小转子所受应力。分析了温度、转速、过盈量以及保护套厚度对转子应力的影响,提出了一些建议,研究分析了新型转子高速永磁电机定子齿和定子轭的磁化特点,建立了考虑交变磁化、旋转磁化以及谐波磁场的定子铁耗计算模型,利用 Ansoft 有限元软件对定子铁耗进行有限元计算,验证了转子采用混合材料分层绑扎的永磁结构能够有效地减小高速永磁电机的转子表面涡流损耗。分析了新型转子高速永磁电机的永磁结构分段、槽口宽度、气隙长度、定子斜槽、保护套电导率和厚度对电机的转子涡流损耗的影响。 该文的研究对我国的高速永磁电机事业有着深远的意义,具有一定的新意。所得结论具有一定的参考价值。显示了该生掌握了较雄厚的基础理论知识,具有较强的科研能力。达到了工学硕士的水平,修改后可以考虑进行答辩。 该文立论正确,论述有据,逻辑清晰,章节安排合理,图表符合工程要求。,0,1,0,0,1,1,1,0,1,0,1,1,0,0 +688,柔性机械臂在工业自动化领域有广泛应用,柔性关节和柔性连杆的弹性振动抑制是系统的关键技术,论文以柔性关节-刚性连杆的机械臂为研究对象,对轨迹跟踪和振动一种进行研究,有一定的实用性。 针对机械臂快速精准的轨迹跟踪控制要求,速度内环采用给定值前馈的FF-IP控制器设计,并采用模糊控制器对FF-IP控制器的积分系数和比例系数进行在线整定,仿真分析了控制器在系统跟踪误差精度和稳定时间方面的性能。针对柔性机械臂连杆的弹性振动问题,设计状态观测器对电机角速度和连杆角速度进行估计,反馈到电机输入,增加系统阻尼,具有一定的创新性。论文研究反映作者对相关学科理论知识有一定的掌握。 论文写作层次清楚,逻辑严密,公式、图表规范,具有一定的基础理论和专业知识水平。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +2057,为探究永磁同步电机运行时的振动和噪声对电机的寿命和电动汽车的驾乘舒适性的影响,文中对电动汽车用永磁同步电机振动噪声特性进行了研究,论文选题合理,具有一定的创新性和工程应用价值。论文主要工作如下: 文中提出了一种V 型内置式永磁同步电机空载气隙磁场的解析计算模型,用等效解析磁体电机模型代替初始的V 型磁体电机模型进行解析计算,并用有限元法验证解析计算结果,证明了该方法的有效性。通过对电机的定子系统进行无约束状态下的模态分析,得出了绕组、绝缘层、机壳和前后端盖对电机各阶固有频率的影响规律,并得出优化后的转子结构。通过建立球面辐射分析模型,以电机机壳振动的结果计算出电机声场的声压和声压级,对比分析优化前后的结果,优化后电机的噪声得到降低,证明该优化方法降低电机振动噪声的有效性。 论文工作量尚可、写作认真、条理清楚、图表清楚,表明作者已掌握了本学科的基础理论与专门知识,具有一定的解决实际问题的能力。,0,1,0,1,1,1,1,1,1,1,0,1,0,0 +1765,论文研究了考虑单阶段预防性维护的混合流水车间调度问题,论文选题具有一定的理论意义和较高的工程实用价值。 论文以混合流水车间为研究对象,以系统的完工时间与设备单位时间预防性维护成本为优化目标进行联合优化。论文量化了排产计划与设备维护之间的耦合关系,建立了以系统最小化的完工时间与单阶段预防性维护成本为优化目标的多目标数学规划模型,论文提出了自适应带有精英策略的非支配排序遗传算法(Non-dominated Sorting Genetic Algorithms II,NSGA-II)进行求解,并提高了选择方式和交叉变异概率。论文最后将不同规模的调度问题在不同参数条件下的传统NSGA-II算法与自适应 NSGA-II算法进行对比,实验结果表明,自适应NSGA-II算法多样性较优,散布范围更广同时求得的完工时间与单一阶段预防性维护成本更小,且更多的前沿解为决策者提供了选择。 论文结构合理,论述清楚,符合规范。表明了作者具有一定的专业理论基础和较强的独立从事科研工作能力。论文达到了硕士学位论文水平。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1969,论文综合利用数值分析、极差分析和双因素方差分析的方法,采用经试验修正的有限元模型,研究了含钢率、偏心率、长径比、钢材强度等级、混凝土强度等级等参数对钢管砼牛腿柱力学性能的影响规律,提出了基于长细比和偏心率折减的矩形钢管砼牛腿柱承载力的计算表达式,分析了低周往复荷载作用下矩形钢管砼牛腿柱的滞回曲线、骨架曲线、耗能能力以及延性系数,探讨了吊车梁对矩形钢管砼牛腿柱抗震性能的影响,成果具有一定的理论和实践应用价值。 作者具备了应用基本专业知识解决问题的能力,论文研究数据较充分,分析方法及手段较合理,写作条理性较好、层次较清楚。,0,0,0,0,0,1,0,0,1,1,0,1,0,0 +543,论文研究以Mg-Al-Ca-Sn-Sr 合金为基础,通过改变合金中Ca 的含量,研究其对合金微观组织和性能的影响。主要研究内容如下: (1)研究铸态Mg-6.5Al-xCa-1Sn-0.3Sr(x=1.0,1.5,2.0,2.5)镁合金的组织、室温力学性能和高温力学性能。 (2)通过蠕变实验研究了不同含量的Ca 对合金蠕变性能的影响,并通过计算应力指数n 和激活能Q 来推算铸态合金在不同条件下的蠕变机制。 (3)通过T6 热处理改变合金的组织,进而提高合金的力学性能。研究Ca 对时效态合金组织、室温和高温力学性能和蠕变性能的影响,并通过计算应力指数n 和激活能Q 来推算时效态合金在不同条件下的蠕变机制。 论文写作文字通顺,图表规范,是一篇高水平的硕士学位论文,反映作者掌握了较强的材料科学基础知识和生物材料性能研究方法。建议进行论文答辩,并授予工学硕士学位。,0,0,0,0,1,1,1,1,0,0,0,0,0,0 +301,该文选题具有是当前备受各界关注的话题,是法学界十分重视的课题,也是难度较大的课题,对规范互联网广告活动、打击违法犯罪具有实际意义。该文资料基础较好,较好地掌握了国内外理论与实务的现状。观点明确,论述涉及多方面问题,思路较开阔,论证有逻辑性,结论具备合理性,反映出作者能够较好地运用本专业的知识和理论。表述规范、流畅。,0,1,1,0,1,1,0,1,1,0,1,0,0,0 +1348,"该论文以""电子商务背景下驰名商标反淡化保护”的相关法律问题为主要研究对象,论文所涉议题目前在法律实践领域存在多种争议,在国内法学理论界受到广泛的讨论和关注。围绕该议题,国内目前已有一些研究成果,但总体来讲还不够充分,仍值得从不同角度进行深入分析和探索。本论文的选题和研究,应对了实践部门时下的需要,对有关理论问题的澄清有一定的推动作用,具有现实意义和理论价值。 作者对于论文议题的宏观方面有一定的了解,对于核心问题有较为明确的把握。论文结构合理,逻辑推理过程比较完整。对于具体理论要点,作者进行了分析、梳理,并在此基础上提出了一些自己的见解。为了论证这些观点,作者收集了相关的理论资料和实践素材。 作者写作态度比较认真,论文形制比较规范,具有一定的学术质量。从中可以看出,作者所受的法学教育比较系统,对于知识产权 法领域内专门知识有一定的掌握。此外,作者对于法学研究的基本方法亦有一定程度的了解,具备了独立的科学研究能力。",0,1,1,0,1,1,1,1,1,0,0,0,0,0 +116,本文立足于深化司法体制综合配套改革的现阶段,针对我国巡回审判制度在最高人民法院巡回法庭和基层人民法院的两种运行模式,对巡回审判制度的立法和司法实践进行整体性分析,并对该制度的完善提供建议,以期巡回审判制度得以规范化、制度化发展,进而促进司法改革的有序推进。本文的选题依据司法改革实际,具有较强的现实意义。选题角度较为新颖,研究对象选定为我国巡回审判制度,不局限于单一运行模式进行分析,并借鉴国外巡回审判发展的深刻经验,以求巡回审判制度可以在完整规范的制度体 系下,两种运行模式共同发挥作用,在不同层面解决司法改革实践中遇到的问题。 与已有文献相比,论文研究的方向较为全面,既从理论方面进行了论证,也从实践层面进行了剖析;既围绕宏观制度进行研究,也从微观规则上展开建设。因而,该论文的研究成果较具有可操作性,可以对立法和实践提供一定的指导意义。 在论证的过程中,该生表现出对基础理论、专门知识的扎实掌握及对理论分析的敏锐思考。整个论文布局较合理,层次分明,逐层深入,语言的运用较为准确科学,是一篇较高质量的论文。,0,0,0,0,1,0,0,0,1,0,0,1,0,0 +922,该硕士学位论文运用相关绘画理论,围绕具体绘画作品和文献资料,对日本近代史上颇具代表性的艺术家上村松园美人画的艺术特色进行专题讨论。该论文将上村松园置于日本近代历史文化语境中,探讨其艺术风格的特殊性及其内在成因,意在揭示上村松园美人画的艺术价值及其对后世的影响。这一选题具有一些学术价值与现实意义,讨论过程中提出了一些值得注意的见解。此前的第一次评审中提到,该论文存在着一些明显的不足与欠缺,需要尽可能予以修正、完善。这次提交的修改稿,相对于上一次的文稿,有所改进,整体上基本上达到了硕士学位论文毕业的要求,经过修改后可以参与答辩。 目前看到的注释和参考文献等的标注,有的仍然不够规范(也就是说没有改好。比如参考文献部分,著作类出版物,需要标注出版社所在的城市等),建议依照通行的规则予以处理。(其中第40页《中国美术史教程》的作者名字,打错了) 语言表述需要继续斟酌、修正、打磨。像“上个世纪”,建议直接改成“20世纪”,以免歧义。 定稿后,务必仔细校对全文。,0,1,0,0,0,0,-1,-1,0,0,0,0,0,0 +2593,轮廓能表示丰富的图像信息,因此,轮廓问题是计算机视觉中重要的基础问题,具有非常重要的研究意义和实际应用价值,该论文主要针对各种不同复杂场景中图像中轮廓识别问题展开研究,选题具有一定的理论和实际意义。论文针复杂多变,外界随机干扰多,目标与背景对比度低图像中轮廓检测中容易出现漏检,错检等问题,对对复杂场景下图像轮廓检测方面展开研究,针对现有轮廓检测算法进行存在的问题,结合生物视觉通路信息反馈调控机制优化与改进,理论证明与实验证明了本文所提方法的有效性,取得了较好的效果,验证了提出方法的有效性。论文反映了作者阅读了大量相关文献,对本专业基础理论和课题方面的知识掌握较为深入、牢固,能利用所学知识解决课题中实际问题,具有一定的科研能力。论文条理比较清晰,写作规范,逻辑结构清晰,实验数据完善。论文已达到硕士论文水平,同意该同学硕士研究生论文答辩和硕士学位论文申请问题和建议:1.文中图表和部分文字需要进一步优化2.文中第3章中的3.4实验部分描述中的损失函数部分描述应该放到模型和网络描述中,且该章中网络描述部分可进一步描述3.轮廓检测性能评价指标能否详细描述和对实验结果中该指标对应的结果进行分析4.提出模型在公开数据集上表现效果不错,在实际场景中图片的效果怎么样?是否可以补充一组实验用来验证提出模型的鲁棒性和实用性?,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1089,本论文选题为高温压力传感器封装结构的研究与设计,有较强的应用价值,有一些创新性,文献调研较为详实,立题指导思想明确,实验设计合理可行,学科知识撞我较为牢固,首先对两种封装结构进行结构设计和有限元分析,之后对期中的一种全固态结构进行了实验验证,实验结果表明,各项静态特性均保持良好,全固态封装压力传感器可以在0~300℃高温下可靠工作,达到预期效果,论文撰写思路清晰,语言流畅。,0,1,1,0,1,0,0,1,1,1,1,1,0,0 +3056,作者文献阅读广泛,论文能够反映本学科及相关领域的发展状况和最新成果,归纳总结正确。论文内容充实,技术方法合理,数据可靠,逻辑结构清晰,得出了较为科学的结论,符合科技论文写作要求。论文作者基本掌握了本领域的发展方向和国内外主要文献,在该领域内开展了课题研究和理论探索,具备独立从事科研工作的能力。本论文已达到硕士学位论文水平,同意其参加答辩。存在的问题及不足:1、摘要中语言不通顺,用词尺度需要准确,例如:“过程中产生会大量排放”“另一方面对现有声屏障产品存在的诸多问题提供了解决方案”中“诸多问题”用词需要斟酌;2、文中引用文献不规范,多出未见引用标注,文献引用相对陈旧;3、文中“试验”与“实验”混淆,多处出现二者通用,希望加以区分;4、各章小结书写形式要规范。,0,0,1,0,0,1,-1,-1,1,1,1,0,0,0 +2674,论文探索政府补贴对新能源汽车整车企业价值的影响,通过多元回归模型研究发现政府补贴对新能源汽车企业价值具有正向影响,股权集中度、高管薪酬激励均积极正向调节政府补贴对新能源汽车企业价值的影响。论文选题有一定现实意义和应用价值,理论知识和研究方法较正确,研究资料较翔实,资料运用较为合理,工作量达到要求;论文内容较完整、结构较合理、研究设计阐述详细。不足之处在于模型创新性不够,变量选取不够全面,建议作者注意论文引证文献格式的规范性。整体而言,论文质量合格,经适当修改之后,符合本项目的培养要求。,0,1,0,1,0,0,-1,0,1,1,0,-1,0,0 +2402,本研究首先基于网络药理学对贝特类药物治疗肺腺癌的靶点进行了挖掘,预测到5个核心靶点基因,并进一步对药物靶点的表达水平、生物功能、调控通路和预后进行了生物信息学分析,以推测其对Warburg效应的影响。研究的第二部分,利用体外细胞实验,进一步研究非诺贝特和苯扎贝特对于两种肺癌细胞系的增殖、迁移和血管生成,糖酵解能力影响。最后又对药物处理的细胞进行了转录组和蛋白组分析。本研究选题具有一定的理论意义,综述能系统全面地介绍本学科领域相关进展,理论基础扎实,研究方法科学合理。撰写规范,语言表达准确。本研究“干湿”结合,工作量饱满,内容扎实,尚存在一些有待改进的地方:1、论文题目是“贝特类药物干预肺腺癌Warburg效应的分子机制研究”,因此综述中关于贝特类药物在癌症中作用的分子机理介绍应更加详细。2、药物靶点仅仅是预测获得,靶点和Warburg效应之间的关系也是通过富集分析推测,药物和靶点之间的结合,靶点的表达水平,应有后续实验验证。药物的体外作用,包括细胞增殖、迁移和血管生成做得比较扎实,但是这部分内容和研究题目相关性不大,并未完全回答药物怎样通过预测的靶点干预Warburg效应?3、最后的转录组和蛋白组分析数据非常有价值,应更好的深入挖掘,分析差异表达基因和蛋白和预测靶点之间的相关性。总体来说,本论文达到硕士学位论文水平,同意修改后答辩。,0,1,1,1,1,0,0,1,0,1,0,0,0,0 +345,互联网的迅猛发展不仅改变了人们的生活,而且产生了诸多的法律问题,亟需政府进行及时监管并做出法律应对。传统学者较多关注网络消费者权益的法律保护问题,而本文选题立足于更具体网络消费者的自主选择权法律保护研究。因此,论文选题具有重大的理论价值和实践意义。本文逻辑结构合理,作者思路清晰。论文整体基本符合硕士毕业论文的学术规范。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +1746,论文研究BDH 食品公司的存货内部控制问题,分析了采购入库、生产仓储、销售出库等环节的内部控制现状,利用模糊综合评价方法对该公司存货内部控制进行了总体评价,并进一步剖析了BDH 食品公司存货内部控制存在的问题,最后提出相应的改进建议。论文选题符合专业要求且具有一定的现实意义,文献综述和论文论述较完整,研究成果对企业有一定的参考价值。但论文在概念界定、行文逻辑、研究方法和研究深度等方面还需进一步完善。,0,1,1,0,0,0,0,-1,-1,-1,0,1,-1,0 +700,硕士毕业论文“某乘用车后排座椅静强度及行李箱冲击分析”,对某汽车的后排座椅进行了仿真研究。论文符合培养方向,具有一定实用价值。 论文建立了某车座椅总成的三维模型,对分体式座椅的坐垫总成和靠背总成分别进行了静强度仿真分析;对后排座椅头枕进行了有限元仿真分析,并根据仿真结果,对后排座椅锁止机构提出了改进方案,对改进后的后排座椅头枕又进行了仿真分析。 对后排座椅进行了行李箱碰撞的有限元仿真分析。根据仿真结果发现的问题,提出了改进方案,改进后又进行了仿真分析。 论文逻辑、结构合理,文理通顺,表达清晰,图、表、参考文献基本符合规范。 从所完成的研究工作和所提交的硕士论文来看,本人认为该同学已在本门学科上掌握了坚实的理论基础和系统的专门知识,具有从事科学研究工作或独立担负专门技术工作的能力,达到了硕士学位的水平。可以安排该同学进行论文答辩,并建议授予工学硕士学位。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2903,论文针对室内巡检机器人地图构建与避障等问题进行研究,对玻璃墙和中空障碍物等特殊场景了进行多传感器融合检测,所选课题具有较好的理论意义和应用价值。论文参阅了大量文献,对国内外研究现状较为熟悉,对传感器特点及相关设备选择较为合理,实验验证了所提出的地图构建和障碍物检测算法的有效性。论文工作表明,作者具备扎实的理论基础,能够利用掌握的专业知识解决实际问题,具有较强的独立从事科研工作的能力。论文层次分明、条理清楚、格式规范,论文达到了硕士学位论文水平,同意进行毕业答辩。论文定性分析了所提方法的有效性,但是对于玻璃墙的检测精度以及与同类方法的性能对比缺少定量的分析。,0,1,1,0,0,1,1,0,1,-1,0,0,0,0 +1166,本文选题很好,具有实际意义且符合专业培养方向。文章对拟研究的废旧电池的回收再利用国内外研究现状进行了较好的描述,对闭环供应链相关各方的博弈关系进行了分析,构建了分散决策和集中决策模型,提出了供应链协调的具体方法。但文章有以下问题值得注意: 1、文章题目应点名研究的是废旧动力电池的闭环供应链,而不是其他电子产品; 2、在文章第3章中第27页,假设2是否成立,值得商榷。如果其成立,那么,废旧电池的回收将是市场行为,无需政府干预,而事实并非如此; 3、在第3章假设6中,“……回收到的废旧电池都会流向电池生产商,……”如果按照这一假设,本文讨论的闭环供应链应该是:“G公司——整车厂——4S店——消费者——第三方回收商——整车厂——G公司”,(由于在这个页面不好画图,作者可以按照这个循环画一个图更直观),而实际上正确的闭环供应链应该是“G公司——整车厂——4S店——消费者——第三方回收商——G公司”。如果按照下面这种闭环供应链,涉及到的逆向回收方应该是“G公司、消费者、第三方回收商”三方,那么本文章讨论的博弈对象就不准确了。 4、在公式3.1中,把G公司销售新产品带来的利润放到这里,显然不妥,这不是逆向供应链带来的利润,与主题讨论的范围不符。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +2586,科创板企业具有高风险、高收益、高投入的特性,传统的价值评估方法对科创板企业的适用性有限,亟需探讨相应的价值评估方法。该文研究分析了创新药企业的非财务影响因素,建立了综合评估方法,并以微芯生物为例进行了价值评估。论文选题具有一定的理论意义与应用价值。论文模型分析较为准确、数据丰富、资料翔实、论证方法科学合理,表明作者具有一定的理论基础与专业知识。论文规范性与逻辑性较好,文字表述较为准确与流畅,具有一定的文字表达能力。论文达到了硕士学位的学术水平,同意修改后答辩。论文存在的问题及不足之处:摘要语言较为啰嗦、重复,可以精炼。研究背景缺乏文献、资料、数据等的支撑。第3页,第(2)点,从标题的表述来讲,应该与(1)合并。第5页,倒数第5行,有错别字。全文还有类似错误,希望能认真审查全文,消除低级错误。第16页,用影响因素在不同文献间是否同时出现来构建复杂网络并计算影响因素的权重,该方法的合理性值得商榷。第35页,用一家企业来验证文章方法的合理性,值得商榷。,0,1,0,0,1,0,-1,1,1,0,0,0,0,0 +2087,研究者围绕我国现行公司制度中的“非清算加速到期”、“股权回购”、“股东出资形式”三个问题检讨我国公司资本制度的不足,选题具有现实意义。文章对前期学术研究有一定归纳总结,对国外相关作法做了概括梳理,在此基础上提出立法建议。 文章基本观点清楚,写作结构合理,能够达到学位论文的基本要求,评阅人同意其进入答辩阶段。,0,1,1,0,0,0,0,0,1,0,0,0,0,0 +2577,"急性心肌梗死(AMI)具有发病快、危害高等特点。疾病标志物含量的临床快速检测,对疾病的早期诊断和治疗具有重要意义。心肌肌钙蛋白(IcTnI)作为急性心肌梗死的标志物,常用作AMI的判断标准之一。论文以适配体为特异性识别元件,结合高灵敏度SERS基底的制备,提出了三种检测策略构建SERS适配体传感器,实现了人血清中cTnI的检测。论文为高灵敏度SERS基底材料的制备、复杂环境中低浓度蛋白的检测和传感器的构建提供了一些新思路。论文选题较新颖,具有一定的创新性和研究价值。作者能够对课题相关领域的研究背景进行充分的综述和分析总结,体现了作者较扎实的理论知识和较强的分析能力。论文研究方案合理可行,结构完整,层次清晰,对实验现象均给出了较为合理的解释,推论合理,结论正确,化学符号和计量单位使用正确,展示了作者较强的语言把控能力和分析解决问题的科研素养。综上所述,论文内容达到了硕士毕业论文的要求,同意论文修改后参加答辩。不足地方:1.中英文摘要中BCA法,BCA全称?缩写符号第一次出现需有全称。2.检测结果的回收率及RSD数值表示时最好小数点后位数保持一致,小数点后一位?3.英文摘要:段落不齐,需调整排版;有些英文表述不恰当,如high-sensitivitySERS,high-sensitivitybimetalliccore-shellstructuremater等;三处出现的Inthispaper可删除;关键词:每个关键词的首字母应该大写。4.参考文献标注[11-12]是不正确的,应为[11,12],文中类似问题还有很多处,需认真检查修改。5.表2-1,表头与表格最好在同一页6.参考文献部分:文献11只列出了年,无卷期页码;文献69,75,85,87,94,98,110,112……等,文献题目应该是只有第一个单词首字母大写,类似问题需仔细检查所有文献并进行修改。",0,0,1,0,1,0,-1,0,1,0,0,0,0,0 +2947,随着3D打印技术的发展,3D打印用材料的需求也越来越广泛,即对3D打印用胶粘剂的需求也越来越急迫,为了增加3D打印用胶粘剂的多样性与实用性,本研究基于高岭土粉末、陶瓷沙粉末、贺州大理石粉末这三种3D打印用基料,通过选择环保型的原料,研制了三种3D打印用胶粘剂,并对其进行了粘度、硬化时间、pH值、抗拉强度等性能测试。选题具有一定的理论意义和实际价值。评审意见如下:1、论文进行了3方面的工作研究,3方面关联性(或梯度性)不强,三者之间的关系没有描述清楚,类似于拼凑实验,建议对论文三个实验章节进行深度挖掘和阐述。2、作为化学工程与技术的硕士学位论文,在实验设计、技术方法或理论方面需要一定的创新。论文的创新点需要充分凝练,即使在第5.2节中描述的3点创新,也没有任何依据和支撑。例如,第1点,有机/无机复合胶黏剂,已经有很多文献进行了报道;第2点中的方法也是常规方法;第3点,关于VOC排放,目前也有很多报道,作者使用的方法并不具有创新性。3、论文工作量太少。第18页开始第二章,第43页第四章结束,整篇论文实验部分共26页,不符合硕士学位授予要求。建议增加实验数据和内容。4、论文的理论深度不够。整篇论文只有实验部分,没有机理探讨,论文太浅,所有的数据(或图表)仅仅描述了一下结果,没有分析“为什么”,不符合硕士论文基本标准。建议增加一些机理性探讨的对比实验,深化论文的理论深度。5、论文的实验设计不够合理,测试方法比较单一。例如,SEM检测,只有在第2章中体现,在第3章、第4章中为什么没有。TG、DSC等方法都可以引入。6、论文撰写不够规范,例如,曲线图中应该为点线结合,p34表3-3的英文标注为3-6。,0,1,0,-1,0,0,0,0,0,-1,0,0,-1,0 +2275,本论文以α-芳基重氮酯氟化反应为研究对象,分别研究了可见光、可见光/机械协同两种方法合成α-氟代芳基乙酸乙酯。论文选题具有一定创新性和潜在的应用价值。作者在题查阅大量文献资料的基础上,提出了研究内容和方向,并完成了试验研究。研究工作具有一定的难度及工作量。论文结构完整、规范性,数据可靠,分析问题比较深入,结论合理。表明作者已掌握了化学工程基础理论和专业知识。以下建议供作者参考:1)文献综述中关于可见光的研究方法国内外进展描述的深度不够,更多的是描述关于氟元素的作用,与文章的主要研究内容有偏离,体现不出论文研究的必要性,需进一步补充完善;2)英文摘要机翻痕迹明显,需认真修改;3)中文摘要中建议不要用序号,另外请注意摘要和结论的中文表述,发展一种……方法不太合适,应该用研究了一种…方法或开发了一种…方法;4)对于创新点的描述,创新性不突出;5)部分参考文献的格式不规范,请修改。综上所述,论文达到工学硕士学位论文水平要求,建议修改后组织答辩。,0,1,1,0,1,0,-1,-1,1,0,0,0,0,0 +664,论文作者针对航空阀用电磁机构小型化和工作环境特殊性的要求,设计一种满足航空阀用的电磁机构。建立该电磁机构的二维有限元模型,并进行了静态和瞬态场的仿真研究,分析了影响电磁机构的性能的参数。建立电磁机构的三维有限元模型,进行了温度场的研究,分析了电磁机构工作情况下对工作环境特殊性的适应性要求,通过仿真分析的方法验证了设计的可行性。论文作者根据设计结果制作了原理性样机,通过试验验证了仿真分析的正确性。论文格式规范,内容完整,文献综述能力较强。,0,0,1,1,1,1,1,0,0,0,0,0,0,0 +1783,论文以《B-S 期权定价模型在高新技术企业价值评估中的应用》为题具有一定的实际研究价值。论文对国内外相关研究领域研究综述进行了归纳和总结。论文框架结构合理得当,模型应用基本合理,实证结果具有一定的指导价值。总体论文写作尚属规范,对所学专业知识能应用到实际中去。文字表述基本准确和流畅。但论文也存在不少问题,建议论文加以修改。,0,1,1,0,1,1,1,1,1,1,1,0,0,0 +402,论文的论域是“守法义务的道德基础”,属于国际法哲学和政治哲学论辩的前沿焦点,具有重要理论意义。第一章是导论,第二章主要论证为什么道德是守法的基础,第三章研究守法理由的道德内涵,第四章研究抗法的道德权利,第五章探索我国公民守法道德建设的实践路径。论文表明,作者掌握了一定的法哲学基础知识,具备了一定的科研能力。文章行文流畅,结构整齐,符合逻辑,具有一定的创新性,基本符合硕士论文的水平,同意答辩。,0,1,0,0,1,1,0,1,1,0,0,1,0,0 +1146,本文基于电阻抗成像技术,围绕肺呼吸动态生理过程,进行了肺呼吸三维动态仿真研究并搭建了肺呼吸电阻抗成像系统。在新冠肺炎疫情防控的关键时期,本课题的研究具有重要的理论意义和潜在的实际应用价值。论文作者广泛查阅了国内外相关文献,仿真研究与实验设计科学、合理,研究成果具有较好创新性。论文工作量较充实,体现作者较好的掌握了专业理论知识,具备独立从事科学研究的工作能力。论文写作概念清晰、分析严谨,论文写作规范性较好。,0,1,1,1,1,1,1,1,1,0,1,1,0,0 +192,第一,该文选题贴近大学生、研究生的现实生活,对于牢牢掌握意识形态领导权、话语权具有一定的促进作用。第二,文章的国内外研究现状的梳理比较全面,学理的线索是比较清楚的。第三,从新媒体对大学生社会主义意识形态教育的影响着手,发现问题,分析原因,然后提出对策,文章的思路比较清晰,结构也很简洁,整体反映了作者专业基础知识是比较扎实,有较强的研究能力。第四,文章符合学术规范,基本达到贵校硕士研究生毕业论文的水平。,0,1,1,0,1,1,1,0,1,0,0,0,0,1 +260,该论文针对CAE-BLDCM转矩脉动抑制和提高系统运行效率等问题进行研究。 创新点明确,将转矩分配函数控制与 DTC 结合, 设计基于 TSF 的 DTC 方法,改进传统 TSF 方法加入中央线圈控制, 更好的降低了转矩脉动。完成 CAE-BLDCM 数学建模, 根据 CAE-BLDCM 模型对 DTC 方法和基于 TSF 的 DTC 方法(直线 TSF、 余弦 TSF) 进行了仿真和对比分析, 验证了基于 TSF的 DTC 方法可有效降低转矩脉动, 并降低系统运行时电流有效值, 提升系统运行效率。 该论文反映作者掌握本学科相关知识,写作规范,逻辑清晰。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +1511,仅从论文结构、逻辑和论述来看,作者思路比较清晰,论文整体架构完整,各部分之间的逻辑联系较强;论文重点突出,说理比较充分,技术路线选择具有合理性,实证分析方法的运用具有可行性,实证提出的研究假设和选取的各项变量有理论依据。样本实证数据充足,数据来源可靠,分析结论有较高准确性;语言表达较流畅,图表、格式均较规范。作者写作前期进行了大量的数据收集分析工作,投入了大量时间。但是论文缺乏创新,作者只是在进行一项重复性的论证工作。,0,0,0,1,0,0,1,1,1,1,1,-1,0,0 +1734,论文选题有一定的实用价值,对同类型的高架冷库气流组织设计有一定的参考价值。 论文对国内外相关领域的研究现状及动态有比较全面的掌握,提出的研究内容与研究方案、研究手段切实可行。论文完成了预期的研究内容,总结得出了一些气流组织分布规律。 1. 得出了纤维空气分布系统和冷风机系统不同时刻的气流分布与降温规律,在库内速度场分布、温度场分布的均匀程度上纤维空气分布系统均相对较优; 2. 得出了纤维空气分布系统的较优气流组织及温度场分布均匀度的入库量及喷射渗透比; 3. 得出了送风温度对库内动态温度场的影响趋势。 基于学位论文的整体情况,表现出学位申请者具有较好的应用CFD模拟软件的能力,具有较扎实的专业知识和一定的独立从事科学研究的能力。,0,1,1,0,0,1,0,0,0,1,0,0,0,0 +2199,(1)绪论中,针对“间接式热泵空调系统”的国内外研究现状分析并不充分,主要体现在:大多采用文献罗列的方式进行描述,各个文献之间关联性不密切;没有对各参考文献研究过程中存在的优缺点进行总结和归纳,不能突出论文研究的重点;参考文献大多过于陈旧。(2)论文中,较多图片不太清晰,如图1-1中的数字、图1-2中的文字、图2-2模糊、图2-10不完整、图2-11不清晰、图3-15不清晰等。有些表格亦不规范,如表2-1等。(3)论文采用的KULI软件较为成熟,不需要介绍。(4)论文仅仅对所获仿真结论进行描述,没有结果进行更为具体的解释,如图20,在4000-4500rpm范围内出现了较为平缓的过渡段,为什么会出现这种现象,有什么影响?再如,图3-21中,开始是压缩功率上升较快,随着时间变长,压缩机功率变化平缓,为什么?(5)第四章内容较少,建议与第三章合并在一起。第三章采用KULI软件进行了仿真,并进行了实验验证,但误差范围达到了9.3%,这个误差较大。论文并没有对该误差产生的原因和避免方法进行研究,仿真结果仍存在较大的不确定性。(6)“4.3热泵空调系统台架制热试验中”,作者如何分别获取和控制的-10℃、-7℃等温度的?该系列环境温度如何保证并没有提及。(7)论文题目为“纯电动汽车间接式热泵空调系统效率提升研究”,然而整片论文均没有针对效率的提升值进行量化研究,出现了一定程度的文不切题问题。,-1,0,-1,0,0,0,-1,0,0,0,0,0,0,0 +2042,提高磁性纳米粒子成像的速度和准确度是断层成像技术的前沿,相关研究具有重要的理论价值和潜在应用价值。通过研究磁性纳米粒子成像(MPI)粒子浓度求解电磁仿真模型和数学模型的构建方法,发现了增加成像时间前提下更高质量成像的实现方法,并分析了噪声、零场线扫描轨迹和轨迹扫描密度三个因素对MPI成像质量的影响,发现了其影响成像质量的规律,形成了系统矩阵成像策略。行文逻辑清晰,表达准确,理论分析合理,所得结论正确。,0,1,0,0,0,0,0,1,1,1,1,0,0,0 +862, 该论文选题在当下社会发展、国民经济有一定的现实意义,能看出在作者在创作研究中具有一定的工作量,但在图像与创作之间的关系上还需要进一步研究;该论文能较充实、全面的运用中外文献资料来引证论点,但用刘小东的绘画语言引证本论文观点还有些牵强;论文研究方法较得当,思路较清晰,但在运用新视角、新方法进行探索研究还需要加强,独到见解少;该论文的结构、资料引证、语言文字、图表等符合写作规范。该论文总体达到规定的要求,建议稍微调整后参加论文答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1621,论文基于加工性能良好和广泛应用的丁腈橡胶为聚合物载体,运用MD计算方法定性和定量地对比分析不同表面官能化处理的CNTs和GNS在NBR基体摩擦学性能方面的补强差异,研究分析官能化CNTs和GNS对NBR基体摩擦磨损特性的增强机理。以复合材料体系的分子模型构建了三层分子摩擦模型,并计算了摩擦模拟过程中材料体系的摩擦系数和磨损率,同时分析了摩擦界面温度和浓度等参数。论文选题有一定的研究意义,研究内容具有一定的理论和实际应用价值,论文研究成果有一定的创新。论文理论分析计算及数据结果处理基本正确,结论可信,论文写作较规范。表明作者较好地掌握了本专业的基础理论和研究方法,具有一定的独立研究能力。论文达到了硕士学位的水平。,0,1,0,0,0,1,0,0,0,0,0,1,0,0 +2096,银行金融机构是国民经济发展的的重要部门,但是,不良贷款已经成为影响银行业文件发展的重要阻碍,直接影响到经营绩效和股东权益。本文基于资产定价理论和信息不对称理论,探讨了H银行信用风险管理的现状、问题,在实证分析H银行信用风险的基础上,针对性地提出了增强银行风险管控的措施和方案。 文章选题新颖,格式较规范,结构完整,方法可行,工作量饱满,建议具有针对性,是一篇较好的硕士学位论文。,0,1,0,1,0,0,1,0,1,1,0,0,0,0 +1456,该文以震后初期受灾物资需要快速精准投送的实际需求为背景,重点对多目标和多约束的应急物资分配调度优化问题开展研究,针对非支配排序遗传算法存在的早收敛等问题,提出基于矩阵编码的变异优化改进算法,通过在应急物资投送方面的仿真实验,初步验证了改进算法的有效性。在核心改进算法研究基础上,设计实现了基于B/S架构的物资投送信息管理系统。论文工作具有一定的新意和实用价值。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +2167,自起动永磁电机在国内外的研究日益深入,发展潜力巨大,是国内外学者的研究焦点问题。 论文对高压自起动永磁电机的起动性能进行了较为深入的分析,开展了电磁设计研究,特别是针对电机的温度场开展了分析,并进行了永磁体不可逆退磁的研究。研究目标明确,研究方法得当,研究的效果较好。作者查阅了国内外相关文献,撰写较为规范,表明已经具备工学硕士的水平。,0,0,1,0,0,0,1,0,0,1,1,0,0,0 +1055,Hyers-Ulam-Rassias 稳定性是一个很重要的研究领域。本论文研究了 Banach 代数中的一般加法泛函不等式和导数,得到了一些推广的公式,具有一定的意义。该生阅读了大量该领域文献,掌握较好,具备了一定英语书写能力,掌握了该领域的基本方法和结论,具有了一定的研究能力,论文结构较合理和规范。,0,1,1,0,1,1,0,0,1,0,0,0,0,0 +1186,本文以纯电动汽车电驱动桥系统为研究对象,进行纯电动汽车车桥轻量化设计及疲劳寿命分析,选题具有较好的实用价值。论文对直联电驱动桥的强度与刚度特性进行分析,进行直联电驱动桥试验模态和仿真模态对比分析,进行模态优化。在模态优化基础上,针对直联电驱动桥整体结构存在的重量冗余问题,进行轻量化设计。最后重点对直联电驱动桥壳优化前、后的疲劳性能进行分析并通过疲劳实验验证 轻量化设计的有效性。研究内容的前后衔接和连贯性较好,结构清晰,研究成果的实用价值较高,论文的难易程度及工作量符合硕士学位论文要求。为了进一步提高论文质量,提出以下意见,供参考。 1.表2.2中,第一行“参数表”三个字去掉,且表格中间用一根竖线隔开,形成两栏表。 2.P13,“见下图 2.3 所示”建义去掉“下”,举一反三,修改全文,统一表达格式。 3.所有流程图的开始框和结束框的样式建义画成圆角框。 4.式(3.1)中的刚度矩阵用[K],而(3.7)中的刚度矩阵又用K表示,式怎么考虑的?其他带[]的符号也有类似疑问。 5.“3.3.2 直联电驱动桥试验模态分析”中,加速度传感器是怎么选型的?力锤的型号是什么?力锤的锤冒的选择依据是什么? 6.P26,最好给出测试模态和有限元分析的前6阶模态频率,这样才能更直观的看出二者之间的差异。难道分析模态和测试模态阵型图很接近吗? 7.构造Kriging近似模型的关键是确定相关系数?,“4.2.1 近似模型的建立”中没有介绍。 8.如果能有优化前的桥壳样件的疲劳试验与优化后桥壳样件的疲劳试验做对比,将会使得相关结论的验证更加充分可信。,0,1,0,1,0,0,0,0,1,0,1,0,0,0 +2358,本文以隔震结构和带支撑的广义Maxwell阻尼器为研究对象,建立了基础隔震结构模型和层间隔震结构模型,基于地震动滤波方程和频响函数二次正交化两种分析方法,对设置支撑的广义Maxwell阻尼器耗能隔震系统在随机地震激励下的响应进行研究。选题方面:选题较好,意义明确,研究内容充实;创新性及论文价值:研究方法合理,创新性较好,其结论有一定实际应用价值;写作规范性:论文格式、语言描述进一步修改。建议完善以下问题:1.实际地震为非平稳随机过程,仅考虑功率谱为平稳功率谱是否误差较大?怎么考虑的?2.对比了不同阻尼器布置位置,是否得到最优化安装位置?3.如何解决采用改进模型模拟协方差函数难以获得表达式的问题?4.英文摘要进一步润色;5.导出PDF文件乱码,检查全文;(P21);6.论文语言可考虑进一步凝练和规范化。综上所述,该论文选题具有现实意义,研究方法切实可行,结构合理,研究结论可信,满足学术型硕士学位论文要求,建议论文修改后答辩。,0,1,-1,1,0,0,-1,-1,0,1,0,1,0,0 +2011,使机器学会如何对文章进行阅读和理解是自然语言处理中的重要任务之一。自然语言处理是计算机应用中具有挑战性应用,论文选题良好,有较好的实用价值。 本人阅读了相关参考文献,了解机器阅读理解模型的设计。对QANet模型原理、数据分词、词表示模型、循环神经网络RNN等关键技术进行了研究。用现有的深度学习和神经网络设计一款基于机器阅读理解的中医问答系统。参照英文数据集上的MRC模型,设计了基于问答模型QANet的测试模型。最终对创建的中医问答数据集进行训练和测试,将RnnTrans模型的结果与其他问答模型的结果进行实验对比。 论文思路清晰,文笔通顺,图文较规范。论文设计思路合理,采用的技术路线适中。说明作者在本学科已具有最基本的专业理论基础,能够应用所学知识解决具体的工程问题。论文达到了硕士论文最基本要求,但设计解决方法过程描述欠缺,建议补充完善后同意该生论文参加答辩。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +1196,本文以生鲜企业冷链运输外包后双方企业博弈策略为研究对象,比较真实地反映了生鲜企业冷链运输外包需求现状,选题较强现实意义,也抓住了双方博弈的“风险”和“投入”两个视角下博弈的重点,最后得出的结论有一定创新性,应用性较强。反映出作者独立思考,科学研究的科研能力,全文结构合理,逻辑清晰,论证规范,语言准确流畅。,0,1,0,0,0,1,1,1,1,0,0,1,0,0 +4,“风险投资机构介入、国际化战略与公司价值的实证研究”一文对风险投资机构介入、国际化战略以及公司价值三者之间的关系进行了相关基础分析。论文基于 2015-2017 年我 国创业板企业的财务数据,选取电子(C5)、医药与生物制药(C8)和信息技术业 (G8)三个高新技术行业进行研究。采用实证分析的研究方法,对风险投资机构的介入行为对于企业价值的影响,以及国际化战略的中介作用进行了研究。 选题具有较强的现实意义,对企业有一定的指导作用。 作者选用的理论基础比较贴切、对路,显示了作者学科知识掌握较好。 论文写作规范,论证具有逻辑性。,0,0,1,0,1,0,1,1,1,0,0,0,0,0 +2252,"本翻译实践报告选题来自撰写者本人专业实践项目,具有真实性、专业性和可检验性,符合翻译硕士专业学位选题要求。实践报告内容为工业技术类,属于本专业方向性选题,具备实践意义,同时,本报告所选取的理论支撑阐述清楚,逻辑符合实践要求,对翻译转化理论的具体阐述和实践释读也较为详实,能分层分类进行汇报,相关翻译工具使用得当,体现了报告撰写人的基本专业素养,达到了专业要求。同时,需要指出的是:第一,部分案例翻译措辞和句式尚有商榷余地。例如,23页中“Example1ST:However,sincemachineshavebecomeautomatedandskilledoperatorsreplacedbyelectroniccontrols,thiscapabilityhaslargelydisappeared.TT:然而,由于机器已经变得自动化,熟练的操作员为电子控制所取代,这种能力在很大程度上已经消失了。”本句译文内部结构逻辑性不强,主语混乱,造成句意不清,且汉语表达规范性也可推敲。“机器已经变得自动化”这类表达和汉语语言特征的一致性需要提高,流利度和通顺度不够。此类问题译文中较多,不一列举。第二,论文的发现部分总结归纳不够,建议再次梳理理论依据和实践过程,将本实践的发现和归纳按照理论依据和文本特点有条理的总结出来,使得报告具有“可转移性”。",0,1,0,0,0,0,0,-1,0,0,0,0,0,0 +278,该论文主要工作如下:1、针对刀具轨迹进给对系统造成的冲击波动问题,对自适应速度前瞻控制算法进行了研究,对进给轨迹曲线曲率自适应判定速度敏感点的位置,求取了高曲率点进给速度的约束条件,并运用速度控制算法逆向求取减速点的位置。2、进行小型数控软件设计与开发。运用C++编程语言,通过Visual Studio 2015软件下的MFC功能类库设计了数控功能界面;3、设计辅助监控模块,运用TIA Portal V14软件编程平台,选取SIMATIC S7-1200型号的PLC设计刀具温度检测模块、换刀模块和报警模块;运用S7-PLCSIM V14仿真器进行了模拟校验,实现系统的辅助控制功能,实时监测系统的运行状态。选题来源于实践,有一定的实际使用价值;归纳总结全面,在研究自适应速度前瞻控制算法和小型数控软件开发方面具有新颖性。 所采用的设计方法具有一定的实用性,论文写作规范,图表清晰、 结构合理、层次分明、文字通顺,说明该生具有扎实的理论基础和较强科研能力,论文达到专业硕士的水准,同意答辩。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +1399,该论文属于高校思想政治理论课教学改革类研究论文。论文从学生的动机和能力、教学内容、教学模式(方法、手段)、评价方式四个方面,对高校思政课理论教学和实践教学中大学生主体性缺乏的表现和对策进行了分析,具有较强的问题意识和现实针对性,对开展思政课教学工作具有一定的启发和参考价值,特别是作者针对实践教学的独特性,对思想政治理论课实践教学中大学生的主体性问题予以了关注,进行了专门的考察,更具价值。论文对学术界现有研究成果进行的细致的梳理和归纳,资料详实、归纳全面。论文研究目的明确、结构合理、逻辑清晰、论证充分、语言流畅。论文的不足之处是缺乏实证调查。,0,1,1,-1,0,0,0,1,1,0,0,0,0,0 +2129,在全球气候变化的大背景下,本研究采用复合改性离子液体(CMIL)催化二氧化碳与环氧丙烷合成一种重要的工业原料碳酸丙烯酯,使得温室气体变废为宝,选题很有意义也有一定的创新性。论文首先成功合成与表征了目标离子液体,通过单因素和正交试验评价了该复合催化体系的催化性能及使用寿命,然后建立了该反应的动力学方程以及通过软件对整个工艺流程进行了模拟,整个工作量比较充实。可看出该作者比较扎实的学科理论基础,以及较好的写作规范性与逻辑性。,0,1,0,1,1,0,1,0,1,0,0,0,0,0 +2051,微电网中的光伏、风电是主要的分布式能源,具有强间歇性、波动性和不确定性,造成并网后对系统功率的调度和稳定一定的影响,本文采用双时间尺度对微电网进行能量调度具有一定的应用价值;采用日前调度策略和实时调度策略相结合在一定程度上可减小微电网的日运行成本和不平衡功率的波动,但对电网的调度管理帮助不大。本文研究工作量饱满,具备独立从事专业技术实践工作的能力,论文概念清晰分析得当。,0,1,0,1,0,1,0,1,0,0,0,0,0,0 +2915,论文整合了YOLOv4、卷积神经网络、循环神经网络BiLSTM和时序分类网络构建电动车车牌识别方法,有一定意义,但是论文存在以下几点不足:1、同识别机动车车牌相比,识别电动车车牌的难点在哪里,要在论文中阐述清楚,并基于此展开创新工作。但是在论文中看不到两者明显区别,换句话说所有识别机动车牌的方法都适用电动车牌,那么本研究的研究意义和研究价值就不大;2、创新点要进一步提炼或补充,论文创新点不突出;3、论文用到了多种方法,为什么第二章只对卷积神经网络进行概述,而题目是基于深度学习的方法。建议缩小题目。4、实验中的比较方法是如何选取的,为什么选择这几种方法?5、论文提出的方法只是在自建的数据库中效果较好,还需要在相关的公开数据集上验证。6、论文的实验部分还比较薄弱,还需要进一步完善和补充实验。,0,0,0,0,0,0,0,0,0,0,0,-1,0,0 +2929,镁合金作为典型轻质金属材料被广泛应用于汽车、航空航天、通讯、医疗卫生等行业,镁合金零件表面质量对其使用性能影响显著。论文选题具有较大的理论价值和实际应用价值。论文在综述了镁合金变形机制、梯度结构及其在镁合金性能提升应用现状的基础上,阐述了循环扭转变形在提升镁合金材料的强度,降低拉压屈服不对性,以及孪晶、位错等微结构强化机制;论文还分析了循环幅值、循环周期、循环频率等参数对镁合金力学性能的影响规律,并获得了相关参数的最佳取值范围。论文运用的理论知识、研究方法和实验手段符合实际情况,理论论证较严密,实验设计较合理,方法和数据较为正确可靠。反映出作者较好地掌握了基础理论和专业知识,反映出作者具有独立从事科研工作的能力。该论文思路清晰,结构严谨,分析合理,逻辑性较强,体现了论文作者具备较强的基本知识运用能和科研能力,论文写作较规范,理论深度符合硕士毕业要求。为进一步提升论文质量,对论文修改有如下建议:1.摘要文字不够简练,应当继续凝练,使之逻辑清晰、层次分明;2.英文摘要软件翻译痕迹明显,语言过于汉语话;3.第一章绪论部分需要简化,去掉与课题研究内容关联性不强的部分如1.4.5节部分;4.图片格式不符合学术论文规范,字体大小与正文不协调如图2-1、图3-8等;图片文字说明尽量采用中文,如图3-12、图3-13等;5.表格格式不规范,学术规范要求表格用三线表;6.检测仪器设备缺少规格说明;7.第二章内容应简化,不是研究的主体部分;8.论文的理论研究不深入,在强韧机制分析和微结构演变规律缺乏理论分析;9.论文排版不够规范,空白处较多,部分文字不通顺,文字说明不够完整,图片缺少必要的指引线等,尽量避免使用第一人称。,0,1,0,0,0,0,-1,0,-1,1,0,0,0,0 +1778,论文研究异常步态的识别技术,选题属于社会发展中的前言,具有一定的理论意义和应用价值。论文在综述异常步态识别方法和生成对抗网络的国内外研究现状基础上,首先设计了穿戴式姿态传感器并采用一维卷积神经网络进行了异常步态的识别,进一步研究了基于图象的异常步态数据提取,最后结合生成对抗网络的基本理论设计了步态序列的生成对抗网络并以此开展了步态识别的实验研究并最终将研究成果应用到助行机器人中。论文结构安排基本合理,内容工作量足,撰写基本符合学位论文规范,表明作者掌握了相关的专业理论知识和基本工作技能。同意修改后答辩。,0,1,0,1,1,1,1,0,1,0,0,0,0,0 +2574,基本达到硕士学位论文水平。1.文献综述部分缺少在线购物类企业的文献资料搜集、分析、及述评,建议补充完整。另外,论文题目是“基于实物期权法的互联网在线购物类企业价值评估研究”,综述部分就没有必要再提及传统企业价值评估方法以及基于改进的评估方法的综述,建议去掉,充实关于实物期权法在在线购物类企业价值评估的文献综述。2.第二章中“三、实务期权法在互联网及在线购物类企业价值评估研究”,这个题目易引起误会,认为互联网企业与在线购物类企业不属于一个类别,但是由前面的综述,好像又属于前者包含后者的关系,建议调整。3.表3-1的资料来源写地过于模糊。4.表5-3只显示了7个季度的营业收入数据,但文中却说有13个季度数据,不相符,建议再确认。另外,以7组营业收入的季度数据,不到2年,来预测后5年数据,可行性不是很强。营业成本、销售费用、研发费用、管理费用、资本支出、营运资本增加额的预测是从2017-2021年的五年数据预测未来5年,可信性不太强。营业收入的数据特征与后面的数据特征、年限完全不一致,建议调整一致。,0,0,-1,0,0,0,0,0,0,0,0,0,0,0 +2095,以辽宁本溪某基坑紧邻育龙路油气合建站,且支护桩与油气站外墙之间地下埋设一条带压输气管线设计和施工分析: (1)利用层次分析法和模糊综合评判法确定基坑支护最优方案,并利用理正边坡设计计算软件对支护方案进行模拟计算,计算内容包括墙身力系计算、立柱内力计算、立柱配筋计算、锚索设计计算、整体稳定验算,结果均满足规范要求,为基坑支护方案优选提供了有力的依据。 (2)根据设计方案编制基坑专项施工方案,并通过基坑变形监测实时反馈支护结构的内力变化、位移变化及周边临近建筑物的变形,判断基坑安全状态,评估支护结构支护性能。 (3) 针对此突发事件,根据基坑变形监测数据及时调整设计方案,并利用动态灰色理论和三次指数平滑法对事故基坑后续服役的安全性进行预测。,0,0,0,0,0,0,0,0,0,0,1,0,0,0 +1266,对航空叶片进行基于SLM的拓扑优化设计,以获得轻量化、性能高、可制造的航空叶片结构,是目前航空叶片设计的研发热点之一。该论文着重研究一种优化设计方法及其制造工艺参数,并通过实验验证其有效性。论文选题具有重要的工程意义。 论文的主要工作有: (1)提出了一种基于SLM的航空叶片拓扑优化设计方法,能够获得自支撑悬垂结构和高精度的成形尺寸; (2)通过激光工艺参数的单因素试验,获得了激光功率、扫描速度、扫描间距与成形件致密度、显微硬度之间的映射关系; (3)应用SLM技术,完成了拓扑优化后的航空叶片制造实验,实验结果表明:拓扑优化后的航空叶片结构符合增材制造工艺标准,成形精度较高、质量较轻、性能较好。 论文反映出该研究生理论基础扎实、实验能力较强,具有较高的科研能力。其学术水平已达到硕士学位论文要求,同意答辩。 推荐该文为优秀硕士学位论文。、,0,1,0,0,1,1,0,0,0,0,0,0,0,0 +1561,论文《冷媒冷却式真空干泵驱动电机冷却系统设计与性能分析》对真空干泵用屏蔽电机进行了冷却系统的设计和冷却效果分析,选题具有一定的理论意义和应用价值。 论文根据电机设计要求的性能指标确定了电机主要结构参数及绕组的连接方式,建立了电机三维模型,对四种管道进行了流速和压力分布仿真,得出合适的螺旋型管道,使用有限元法仿真得出电机得温度场分布图。搭建了螺旋型冷却管道真空干泵用驱动电机试验台,进行电机温升试验。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +2614,论文达到硕士学位论文水平修改建议:1、第5页,第二段“2019提出一种基于中轴变换的改进算法[10]该方法通过Voronoi图来确定最初的中轴方位”,最后一段“ZS快速并行细化算法的出现是在文献[25]中,由Zhang等人进行详细介绍,该模型是基于并行处理的手段进行优化完善的”等描述不规范,建议修改。2、第10页,“而最后一种将其定义为广义势场算法”建议修改为:“第四类是广义势场算法”。3、第45页,最后一段“应该主要以下几点:”是否改为“应该要满足以下定理”?4、论文描述中语言需要规范些。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +3009,在本论文中,作者以冲压控制臂的GP-180型机械臂为研究对象,通过运动学分析明确了机械臂的工作空间,通过工件受力分析提出了新型电永磁式端拾器的设计,并优化了其运动轨迹,最后通过仿真模拟验证了设计、算法的有效性。课题研究具有一定的工程应用价值与理论深度,研究方法得当,能够体现一定的科研能力,研究结果具有一定的创新性,论文写作具有逻辑性、符合规范、格式基本正确。论文存在以下需要认真修改的问题:(1)英文摘要中,语法、陈述方面的错误较多;(2)绪论部分,文献的综述与课题研究内容之间的关系需加强,即需要引出课题研究的必要性;(3)诸如图3-4零件生产流程图,应当增加箭头以指示方向;(4)图4-4、图4-5、图5-1等,图中标注的文字、数字的大小需要调整,清晰度需要保证;(5)图4-6、图5-3,应当是表,诸如此类的地方应当认真修改;(6)图5-4,有价值、有意义吗?图5-7清楚吗?(7)图5-22、图5-24等算法收敛曲线,缺横纵坐标,诸如此类的地方应当认真修改;(8)对仿真模拟结果的讨论不充分,摘要、结论部分缺少结果的定量呈现;(9)部分参考文献的格式不规范。,0,1,-1,0,0,1,1,-1,1,1,-1,0,0,0 +2065,文章以 YK 牧业公司为例进行研究分析,首先对该公司的营运资金管理绩效的现状进行了评价,再以 AHP-模糊综合评价法为基础,结合渠道管理方面的研究,构造 YK 公司的营运资金管理绩效评价体系,得到该公司整体的营运资金管理绩效水平是“中等”的研究结论。 文章选题具有一定的意义,研究背景部分能够介绍清楚该选题的在实务中的现状,研究范式较为规范,研究方法较为详实,研究结论有一定的启发意义。,0,1,0,0,0,0,0,0,1,1,1,0,0,0 +2262,本论文基于城市建设用地聚类基础上,提出了基于城市建设用地的城市类型划分及其标准,对其它相关研究有一定参考价值,同时对城市人口变化进行了预测。总体看,本论文有一定工作量,语言通顺,论证相对充分,结构完整,但在研究对象、规范等方面存在较多问题。论文缺乏应用的科学性和严肃性,论文中第3章县级市城市用地并未说明,城市用地范围到底是什么,按照《中国城市统计年鉴》提供数据应该全县县域数据,而非县级市市辖区范围土地数据,如果利用全县范围土地利用数据能说明县级城市类型吗?第4章中论文又采用了市区人口、城区人口以及暂住人口等口径,这里涉及了不同空间范围,这与第3章对应吗?如果不对应,如何做下一步分析?论文第三章、第四章和第五章分别选择晋州市、福安市、新乐市进行了分析,三个城市具有代表性吗,论文并未介绍,选择三个不同城市进行分析有何科学根据,建议进行统一处理。从论文题目和章节目录表述并不准确,从题目上看论文重点和落脚点应该是人口变化的研究,但论文并非如此,部分章节与内容也不对应,建议全文调整。,0,0,0,1,0,0,-1,1,0,0,0,0,0,0 +2681,论文通过构造一种组合型射线波函数以及对组合参数的优化选取,提高了波叠加法在近场声全息技术(NAH)声场计算中的求解精度及计算效率。论文行文流畅,逻辑清晰,达到硕士论文水平。几点修改建议如下:1)摘要太长(硕士论文通常在一页纸以内),内容可适当删减,仅保留本文所做的主要工作与贡献。2)第5章题目及论文中的正则化罚矩阵应改正为正则化惩罚矩阵。3)课题来源作为一个独立章节放在绪论里不太合适。该章倒数第二段,‘有效的’不仅,文法不通。4)图2-7及文中随后的一些图上的字面标注有点模糊。,0,0,0,0,0,0,-1,1,1,0,0,0,0,0 +553,论文以A铁路轮渡公司为案例,对成本管理体系优化问题进行了研究,论文对成本管理理论相关的理论和文献进行了回顾,在此基础上展开案例分析,案例分析中有比较丰富的数据支持,论文结构安排比较合理,写作思路清楚,案例分析内容比较丰富,语言通顺,表明作者对成本管理理论相关的基础理论知识有一定程度的掌握,整体而言,论文水平已经达到了硕士学位论文的要求。,0,0,0,0,1,0,0,1,1,0,0,0,0,0 +1240,表面涂层技术可对零件表面强化,并对损伤零件表面修复,但传统防护涂层制备确定后,其抗磨或减摩涂层不能在摩擦服役工况下持续保持零件运行的可靠性,也难以延长零件的使用寿命,从而导致在苛刻工况下服役的机械零件因表面磨损而失效,引起设备故障。对蛇纹石的自修复涂层制备及摩擦学性能进行研究,可解决上述问题。但目前相关研究较缺乏,制约了该技术应用发展。因此论文《基于蛇纹石的自修复涂层制备及摩擦学性能研究》选题具有很好的创新性,其社会应用意义大。 基于国内外文献综合、微纳米蛇纹石引入到金属涂层材料体系分析,该论研究了蛇纹石/FeCrBSi复合涂层制备工艺及其摩擦学性能。 基于蛇纹石/FeCrBSi复合涂层工艺制备、物相结构表征和微观力学实验等的测定(结构激光共聚焦显微镜、扫描电镜、能谱仪、X射线衍射仪、纳米压痕仪、大载荷划痕仪),该论文对复合涂层的微观形貌、元素成分、物相组成、微纳力学性能和结合行为进行了表征研究。 在此基础上,该论文采用正交试验方法、往复式滑动磨损试验,该论文研究了载荷、往复频率、摩擦时间、实验温度和涂层中蛇纹石添加量5个因素对复合涂层摩擦学性能的影响规律。基于磨损表面形貌与元素的进一步分析,该论文探讨了蛇纹石/FeCrBSi复合涂层的减摩抗磨自修复机理。以上设计数据详实结果准确,该论文的研究结果可为我国蛇纹石/FeCrBSi复合涂层的减摩抗磨自修复材料的研发应用提供科学参考。 综合而言,该论文的研究运用了国内外文献综合、蛇纹石/FeCrBSi复合涂层工艺制备、复合涂层的物相结构表征和微观力学实验等的测定(结构激光共聚焦显微镜、扫描电镜、能谱仪、X射线衍射仪、纳米压痕仪、大载荷划痕仪)、往复式滑动磨损正交试验、减摩抗磨自修复理论分析等等综合知识技能。以上专业综合知识技能应用多,难度和工作量均大。同时,该论文写作规范,论文参考意义较大。,0,1,0,0,1,0,1,0,0,0,0,1,0,0 +2819,"论文以CEA理论为指导,对《某载货车维修手册》第三章汉译英翻译实践进行了总结和分析。论文结构清楚,占有文献资料较丰富,对CEA理论的国内外研究现状进行了研究并付诸实践,工作量饱满。但论文存在以下不足及建议:1.为了显示论文的客观性,建议把论文里的we,I,me,you,your等词换成客观的第三人称;2.在论文3.2.1Comprehension的第二段用了一长段来阐述严复的“信达雅”,显得有点文不对题;3.案例后的论证有待加强,和CEA理论的结合度也应加强。例30~32的分析太少,应适当增加分析的内容;4.论文显得比较冗长,建议删除与中心关联不强的语句及个别术语的解释及5.1.2部分;对李长栓教授的介绍也可适当删减;建议在二、三、四章结尾增加对整章内容总结的段落;5.论文个别地方还存在不严谨的地方。譬如13页提到李正栓的观点未加注,也未在参考文献里体现;18页关于季羡林夹注的时间和参考文献里的时间不一致;40页例31的TT打成了ST;5.1.1和5.1.2用介词短语做小标题;参考文献的第二、六条格式不规范;53页的3~5mm之间没有空格;84~86页表格里的个别单词被随意分成两个部分;6.论文还存在少量的语言错误(第5、14、25、29、43页等);个别地方的译文质量有待提高,譬如被动句转主动句部分的个别案例及例19、29的译文。综上,建议修改后答辩!",0,0,1,1,0,0,0,-1,1,0,0,0,0,0 +129,本文选题符合专业方向,对实际生产具有一定的指导意义。本文介绍了激光熔覆成形热传导相关理论基础,建立激光熔覆成形过程的数学模型。通过仿真和实验的方法研究了不同材料激光熔覆成形的温度场与应力场、变功率激光熔覆成形加工的特点,同时进行了激光熔覆成形多道多层搭接试样的初步研究。作者对专业知识的掌握较好,熟悉相关工具软件的使用,具有一定的实际工作能力。论文写作基本规范,结构清楚。文章在理论研究和方法创新上略显不足。,0,1,0,0,1,1,1,0,1,0,0,-1,0,0 +1200,本文以一台3相6/4极高速轴向磁通双凸极电机为对象进行研究,通过参数优化解决该类电机转矩脉动较大的问题。论文选题具有重要的理论意义与实用价值,内容比较充实,表明作者已具备本学科一定基础理论和系统的专业知识,具有一定的科研工作的能力。 但论文的逻辑还还存在一些混乱的地方,在细节处也存在一些问题,望在答辩之前及时修改和补充。,0,1,0,0,1,1,0,0,-1,0,0,0,0,0 +824,中国也逐渐进入老年化的社会。老人由于肌肉萎缩等疾病的原因,很难单独完成起立运动,所以康复机器人受到广泛关注。论文智能助行机器人辅助起立研究,提出一种辅助使用者完成起立运动的机器,具有一定的现实意义,研究成果有一定应用价值。 论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。 论文基本达到硕士论文水平,同意参加进行答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +751,无论是“向死而生”还是“不知生,焉知死”都指向一个问题,那就是死亡的必然性,每一个人都无法逃脱,也正因为此,死亡成为古今中外众多学者探索的重要话题。在我国正步入深度老龄化社会的当今,死亡问题必须严肃面对、合理引导。《我国安乐死合法化的伦理探究》有较好的理论与现实意义。同时,论文结构简洁,逻辑清晰,语言流畅。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2249,本毕业论文选题主题明确,文献准备充分,针对科创板创新药企业进行企业价值评估,选题有较强的现实意义,本论文学术规范,在评估方法方面有一定的创新之处和学术价值,符合资产评估培养要求。本文在结合了模糊综合评价法的基础上构建复杂网络,基于复杂网络构建调整系数的rNPV修正模型来计算出科创板创新药企业的实际价值。其研究有利于解决现有评估方法在评估创新药企业价值方面存在的局限性,有助于企业价值评估方法改进,提高评估质量。本文研究方法充分考虑了非财务影响因素对企业的潜在价值以及各个创新药业务线对企业的现有价值,利用PageRank算法将这些非财务影响因素构建的复杂网络的节点重要性进行量化,得到调整系数K来作为创新药企业的潜在价值。并对传统的rNPV模型进行修正,作为相应的现有价值,最后在rNPV修正模型计算出的现有价值的基础上乘以调整系数K,作为企业创新药业务线的总体价值,结合对微芯生物进行案例分析,检验了本研究评估方法的可靠性和实用性,有利于更广范围适宜企业价值的评估,促进资产评估行业的发展。本论文不足和建议:第一,文章的公式格式、标点符号等不规范。如:有些公式中符号的表示含义未给出,32页中出现“,;”标点重复使用。第二,文章的复杂网络插图分辨率不够高。第三,建议运用其他信息化技术研究非财务影响因素,以便能够完整地反映出企业整体非财务影响因素的价值。总体而言,本毕业论文达到硕士学位论文水平要求,同意该学位论文参加答辩。,0,1,0,0,0,0,-1,0,0,-1,0,0,0,0 +205,对于人体细胞内外液容量的无创精准检测在临床上有重要的应用价值。该硕士论文课题研究基于生物组织的电特性,设计开发了一套基于生物阻抗谱分析法的包括硬软件单元的人体阻抗多频检测系统及分析方法,在实际人体的实验测定中,体现了较好的稳定性与准确性。该硕士论文研究立题明确,实验设计合理,综述撰写全面,体现了作者从事生物医学工程多学科交叉研究工作的能力。建立在针对下述几点修改意见的基础上,开展硕士学位论文的答辩工作。,0,1,1,0,0,1,0,0,0,1,0,0,0,0 +2829,"论文以次分数布朗运动驱动的随机微分方程对资产价格建模,推导相应的Ito公式,基于支持向量机对几何亚式看涨期权进行定价。论文选题具有一定的学术价值和理论意义,但实践和应用层面的贡献显得不足,论文的理论和应用层面的创新点不够丰富。从论文可看出,该同学基本具备本专业的基本理论和方法,一定程度上能独立开展研究工作,工作量饱满,达到本专业硕士学位论文水平。不足之处如下:Page7,为什么等于零?定义没有写准确!什么是次分数布朗运动?Page8,这个随机微分方程写的正确吗?第一个是dt吧?Page15,是标的资产价格还是对数价格呢?论文表述的专业性、准确性等方面有待继续提高。",0,1,0,1,1,1,0,0,0,0,0,-1,0,0 +743,文章以《互联网第三方支付平台法律问题研究》为题,采用实证分析、比较分析及研究梳理的研究方法,对互联网领域第三方支付平台的进本法律问题做出了系统化的研究。从选题来看,互联网第三方支付平台作为市场运作机制较为成熟的事物,无论在金融市场领域的体量规模,还是相关的边际效益影响等都决定了第三方支付平台相关的法律问题具有相当的研究价值。从文章结构来看,作者首先就互联网第三方支付平台的法律性质做了简单的分析,就相关支付流程运作的各方主体各方关系进行了梳理,在此基础上试图结合实践现状,通过问题为导向的价值分析就沉淀资金孳息的利用不充分、衍生金融犯罪等问题进行研究。文章具备法学及金融学双学科交叉的演技优势,通过比较法研究系统就域外相应领域的法律运行与规制等进行了有效梳理,最后针对我国互联网第三方支付平台存在的问题提出相应的建议。总得来说,作者具备一定的理论基础,并尝试在文章创新方面给出自己的思考,具备一定的方法意识,能够较为全面地对前沿问题展开系统研究,具备一定的硕士研究生水准。,0,1,0,0,1,0,0,0,0,1,0,0,0,0 +2756,论文选题具有一定前瞻性,研究成果具有一定创新性,能够准确把握该领域研究动态,语言表述准确,研究方法设计合理,对实际设计有一定指导意义,已达到硕士学位论文水平。但是存在如下问题:1.表2-4弹性模量表示方法存在错误;2.建议将图3-21中纵坐标初始刻度适当放大;3.第3.2.7节,应考虑过FRP网格增强ECC加固试验梁界面产生的横向裂隙;4.第四章出现两个表4-1,第二个表4-1缺英文翻译;5.请给出数值模拟加固层与混凝土之间接触采用面与面接触采用摩擦接触系数0.6选取依据,为何不考虑层间的粘聚力?6.请注意文中单位正斜体,7.请在第5章理论分析过程中考虑初次加载损伤引起的刚度退化,并考虑FRP网格增强ECC加固作用的影响程度。,0,1,1,0,0,0,0,1,0,1,0,1,0,0 +1384,该论文针对普通纤维混凝土的性能不足与海工领域应用限制问题,提出了铁基非晶合金带纤维混凝土体系,通过研究该体系的配合比设计与纤维掺量等参数对其基本力学性能与防腐性能的影响,获得了该体系的最佳配合比、最佳掺量、各项参数与性能间的关联规律,论文工作量饱满,数据详实,分析较合理,研究结论具有一定的工程价值与创新性。但该论文为阐述该类纤维混凝土体系相较于普通混凝土的性能提升的机理,尤其是铁基非晶合金带纤维的功能机制,需进一步修改后答辩。,0,0,0,1,0,0,0,0,0,0,1,1,0,0 +2949,随着数字科技对经济、文化产生深刻影响、推动相关产业升级、改变人类生活方式与公司成长模式的趋势越来越显著,数据资产对企业的重要性逐渐提升,据此引发了对数据资产价值进行评估的需求。但目前评估界仍然缺乏成熟系统的数据资产估值模型,因此,本研究基于电商企业进行数据资产价值评估的研究具有一定的理论引领意义,同时也可以为实践提供资料和方法的借鉴。文章占有资料丰富,综述还算全面条理,述评贴切,主要运用模型构筑和案例应用的方法,获得了尚算丰富的研究结论,达到了预期的研究成果,反映作者基本掌握了专业基础理论,并能在指导教师指导下从事科学研究工作。文章方法运用较合理,结论、观点较明确,提出了对解决实际问题具有一定参考价值的新见解,工作量适中,达到了硕士学位论文的工作量要求。论文公式符号的使用恰当。1、章节标题要凝练准确。比如第二章的题目是“数据资产的基础理论”,但是,数据资产的定义、价值构成和传统估值方法的描述是基础理论?再如第二章第三节题目是“传统评估方法对数据资产的适用性分析”是否恰当?是对“数据资产”还是对“数据资产价值评估”?第三章的题目应该是“数据资产价值的影响因素”还是“数据资产的影响因素”?注意,数据资产和数据资产价值是不同的概念,不能混为一谈。建议,通读全文重新思考标题的设置,要严谨合理准确。2、全文立论的基础是论文29页公式4-14,但是,此公式的理论依据或者文献支持是什么?3、什么是创值估值法?它的先进性体现在何处?它和传统的EVA之间是否有关联?如果没有关联,文章的特色又在于创值估值法,为什么大费笔墨介绍传统EVA并在案例中进行计算?如果二者有关联,文章在何处体现了二者的关联?论文的具体案例在计算出传统EVA之后并未在后续研究用这一数值。建议进行修改或者进行补充说明。4、财务分析的内容非常突兀,和文章前后内容之间没有任何关联。5、文章在计算未来EVA的时候借用了两阶段模型,但是从文章前面的分析可以看出,EVA是一个综合而非单一指标,受众多因素影响,稳定增长或固定不变的假设并不合理。,0,1,1,1,1,1,0,0,0,-1,0,0,0,0 +2405,毕业设计能力达到硕士学位水平,但毕业论文没有达到硕士学位论文水平。存在的问题是:一是参考文献不规范。虽然罗列在文末,但是,在论文的字里行间并没有体现,哪里是引用的,看不出来。二是论文结构不符合学术规范,看不出学术逻辑性。论文没有绪论部分,一般由研究背景、文献综述、研究方法、研究思路、研究内容和创新点构成。本文虽有部分内容,但没有规范体现。三是正文结构缺乏逻辑论证,设计图应该作为论证的结果予以呈现,而不是不相关的呈现。比如说,论证“将消弭的民俗唤醒”这一观点时,其策略是设计民族文化展示广场和文化墙,但是图纸只有文化墙,而且文化墙并没有看到任何有关民族文化的展示内容,更遑论民族文化广场啦!四是理论支撑缺乏,基本内容没有论证。既然是以文旅融合为背景,那么是怎么解决文旅融合发展问题的呢?论文完全忽视了这个问题,看不到运用什么理论解决这个问题的思路。,0,0,0,0,0,0,-1,0,-1,0,0,0,0,0 +152,本文以铁矿石选矿用电磁淘洗机为研究对象,主要用数值模拟的方法对分选筒旋流器流场特性进行了研究,选题有一定的工程背景。作者阅读了相关的文献资料,对与本课题密切相关的研究成果进行了详细地综述。通过研究,论文的主要内容如下:利用FLUENT 软件对分选筒结构中的流场进行了模拟,分析了速度、压强在分选筒不同位置的变化以及磁粒子在分选筒内的运动场;分析了切向水入射角对内部流场形态的影响;根据模拟结果对分选筒结构进行了改进,结果表明改进后的结构可以在内部实现稳定的螺旋上升水流,为冲散体积较大的磁团聚提供了较为充足的动力。论文包括数值模拟与分析,研究数据可信。说明作者掌握了本学科研究方向的基础理论和较系统的专业知识,已具有运用科学理论、方法和技术手段分析、解决工程实际问题的能力。论文在一定程度上体现了解决工程实际问题的新方法。论文写作较规范,条理较清晰.,0,1,1,0,1,1,1,1,0,1,0,0,0,0 +1153,本文首先利用分子模拟技术通过对不同类型的PI 在分离CO2/N2 体系的分离性能与分离机理的研究,选取并合成了适合应用于气体分离的6FDA-DABA 型PI,并利用GO 以及氨基硅氧烷化的GO 对其进行了改性,制备得到混合基质膜,通过膜通道的调控,实现膜气体分离性能的提升。 论文选题角度新颖,有一定创新性,具有较好的实际应用意义。研究方案设计科学合理,设计方法有创新性,能在研究中综合运用所学基础理论和专业知识,具有较强的独立分析问题和解决问题的能力。论文结构合理,工作量饱满,数据完整翔实。写作态度认真、论述清晰、语言流畅,结论正确。符合硕士研究生毕业论文的要求。,0,1,0,1,0,0,0,1,0,0,0,1,0,0 +443,论文结构基本清楚,层次分明,研究反向属于本专业研究范围,对学科知识有一定程度的把握。能够运用所学的内部控制基本五要素解释说明公司情况,但大量分析数据均来自证监会报告,整理分析的内容缺乏自身工作量;研究内容前瞻性不强,实用价值和社会意义不大。文献综述梳理尚基本清楚,掌握了最基本的写作范式,格式欠缺规范性,尤其目录部分,研究形式究竟是案例研究还是专题研究,现在看两种方式夹杂着都有。,0,0,0,-1,1,0,-1,0,1,-1,0,-1,0,0 +2633,论文对竹木复合结构受弯性能进行研究,具有一定研究意义。主要存在以下问题:1、第一章引言内容简练;2、英文摘要错误较多;3、研究意义没有阐述清楚;4、国内外研究现状介绍需要进一步厘清逻辑关系,按照试验、有限元和理论介绍;5、总结现有研究不足,没有介绍;6、第二章各材料力学性能建议采用列表的形式;7、建议试验方案单独一章;8、试验结果介绍要补充相关原因分析;9、第三章和第四章合并;10、弯矩-曲率关系没有;11、应变分布规律没有;12、理论分析中没有给出简化设计公式和构造建议。,0,1,-1,0,0,0,0,-1,0,0,-1,0,0,0 +2677,论文通过调研,研读大数据、数据资料等相关理论知识,梳理了数据资产评估方法,构建了GA-BP神经网络模型来评估数据资产,并以百度搜索引擎为例,评估了其资产价值。最后,得出了相关结论,提出了今后的研究展望。研究较有一定的理论价值和实际价值。论文结构合理,逻辑严密,文字通顺,观点基本正确,已达到硕士生学位论文规范和学术水平的要求。内容上一些建议:1.文献综述部分中的国内为研究综述应为国内为研究现状,文献述评部分应该对已有成果从中受到怎样的启发与本课题已有研究中存在薄弱环节进行述评,这部分内容尚显薄弱,应予以补充。2.第二部分内容存在着文不对题的现象,标题为数据资产与评估相关理论,而文中并未涉及相关理论,只是一些概念的界定及评估方法的介绍,应将标题修改为数据资产评估的相关理论概述。另外可将数据资产评估方法这部分纳入数据资产评估方法的选择(另起一章)。,0,1,-1,0,0,0,0,1,1,0,0,0,0,0 +1354,该论文以表面装饰的类石墨烯和类石墨炔纳米材料为研究对象,利用Ising模型结合Monte Carlo方法从理论的角度研究了材料的磁性和热力学性质,分析了不同的交换耦合和各向异性常量对两种材料的一些磁性参量和热力学参量的影响行为,并对其进行了一些解析和讨论。整体来说,该论文选题较为新颖,对本研究领域的文献资料总结较为得当,研究方法合理,所得结论对类石墨烯和类石墨炔的制备和应用方面具有一定的指导意义。论文撰写较为规范,论文工作量稍显不足。,0,1,0,-1,0,0,1,0,0,1,1,0,0,0 +1167,本文选题具有理论和立法借鉴意义。地役权或者以权在法律基础理论方面是一个传统的问题,我国是一个社会主义公有制,尤其土地为共有,是地役权存在的空间受到极大的限制,随着市场经济的发展,以及以权制度客体范围的丰富,使我国建立地役权制度成为必要。 论文结构完整,体系性强,作者不仅较为系统的阐述了地役权的理论和功能,并且就其法律要素作了较全面的阐释,分析了以权制度在我国民商法律规范中薄弱的陈层次原因,在比较大陆法系若干国家关于民商法有关地役权制度的基础上,针对我国社会经济发展的大趋势,认为充实和完善我国 的地役权甚至以权制度的必要性,进而对我国地役权制度的完善提出了立法建议。 本文条理清晰,逻辑严谨,语言表述准确流畅,具有一定的专业性,可以看出作者的民商法律专业理论基础扎实,论述能够紧扣主题,不仅仅是是制度规范的研究分析,还能从民商法律调整对象的社会经济关系角度进行深层论证,域外法律的吸收借鉴,立法建议的论证等,其建议结论还是很中肯的。论证方法恰当,文献资料还算丰富、详实,格式规范,总体是一篇成功的硕士学位论文。 推荐参加学位论文答辩,建议授予硕士学位。,1,1,1,0,1,0,1,1,1,1,1,0,0,0 +1560,论文《考虑保鲜努力的非即时衰减品库存与阶梯定价联合决策》重点研究非即时衰减品的库存与阶梯定价问题,并分两种情况进行实证研究,选题对社会经济发展具有较大的现实意义。文献综述比较详实充分,基本能反映本领域国内外研究前沿,述评客观。论文研究思路清晰,方法得当,工作量饱满,结构合理,重点突出,层次分明,在前人的基础上有创新,研究结果具有较强的推广性。论文反映作者具有较高的理论知识和独立从事科研的能力。论文概念清晰,材料数据可靠,可是符合一般要求。 同意修改后参加答辩。,0,1,1,1,1,1,0,0,1,1,0,1,0,0 +956,论文选题最好时作为社会工作专业的研究议题。仅看论文的话,选题意识明确,论文主要分析了社区志愿者实施帮助行为与其工作投入之间的变量关系、作用机制及边界条件的相关实证数据检验,为社区组织如何有效减少实施帮助行为对社区志愿者的负面影响提供相关合理建议。作者对本领域的研究成果也基本掌握,研究方法科学,数据来源详实可靠,数据分析和论文写作符合要求,研究内容基本充实,研究思路清晰,文笔流畅。研究结论具有一定的借鉴意义,论文符合硕士论文答辩的要求,同意参加答辩。 ,0,1,0,0,1,0,1,1,1,1,1,0,0,1 +581,论文以一台 4 极 18 槽的表贴式永磁同步电主轴作为研究载体, 对电主轴进行电磁分析的同时还进行关键结构的模态分析和振动噪声的分析研究。用瞬态分析法对电主轴气隙磁场进行了分析研究,分析得到结构的固有频率和振型,并将电磁激振力频率分别与得到的电主轴定子铁心模型、转子铁心模型、整机装配模型模态频率相比较,得出了其频率相差较远, 电主轴运行时不会发生共振现象的结论。对不同廓形的磁极模型进行有限元对比分析,研究出在相同开槽面积的情况下,不同槽形对转矩脉动的影响。 论文思路清晰,条理清楚,论述比较充分。在广泛收集查阅相关文献的基础上,能熟练运用专业设计分析软件完成相应的分析研究,具有较强的科研工作能力。论文工作量比较饱满,格式规范,达到了硕士研究生论文水平。,0,0,1,1,0,1,1,0,1,0,0,0,0,0 +2521,该生论文采用静电自组装和丙酮蒸发固载法制备了不同的磁性MOFs复合材料,作为磁性固相萃取吸附剂,与加压毛细管电色谱(pCEC)联用,对葛根中三种异黄酮物质进行了分析检测。并且考察了不同单因素情况下磁性固相萃取吸附剂对葛根中异黄酮类物质萃取过程的影响以及吸附规律。建立了pCEC法分离检测葛根中葛根素、大豆苷、大豆苷元异黄酮的分析方法,实验表明,这种方法可用于葛根中异黄酮的分离检测。通过超声辅助静电自组装制备了MOFs磁性ZIF-8/Fe3O4@SiO2纳米复合材料,将ZIF-8/Fe3O4@SiO2纳米复合材料作为中药葛根异黄酮吸附剂与pCEC联用,测定了葛根样品中的葛根素、大豆苷、大豆苷元。该方法省时、操作简单、除杂效果显著等优点。论文选题目标明确,实验设计合理,思路清晰,创新性强,具有重要的理论意义和潜在的应用价值。通观整篇论文可以发现,该生具有较扎实的理论基础和专业知识,综述简练完整,较好的掌握了国内外发展动态。论文条理清晰,层次分明,结构严谨,技术用语准确。达到了硕士学位论文水平。论文存在的不足之处:1.英文摘要第一句“Inviewofthis”在中文摘要中并未体现。2.语言表述如P12“80℃热回流---”“4℃低温避光---”“用石油醚萃取3次,将石油醚部分弃去”应该进行修改完善。3.部分参考文献写作欠规范,如[2][31][36][88][92][102][103]等论文题目首字母大小写与其他文献不一致;文献[53]作者和期刊名称有错误。4.表格3-4、4-4中,在表头中%号已加注,表中不用再标注。,0,1,1,0,1,0,-1,0,0,1,0,1,0,0 +2912,论文针对移动平台路径规划和机械臂轨迹跟踪进行了研究。选题结合工程实际,研究⼯作具有很强的理论意义与实际价值。该课题论⽂的内容与题⽬相符,结构完整,格式规范,层次清楚,逻辑性强。论⽂引⽤⽂献具有代表性和科学性,进⾏了一定的综合分析和归纳整理。课题研究具有良好的创新性,论述过程思路清晰,综合运⽤了所学知识解决问题,研究内容充足,分析⽅法选⽤得当,有相应的试验数据资料,结果真实可信。论⽂撰写认真,文字表述准确性和流畅性好,结论和建议具有很好的现实意义。该论⽂反映出了作者在本门学科⽅⾯具备了坚实的理论基础、系统的专业知识以及良好的科研能⼒,达到了硕⼠学位论⽂要求,建议参加答辩。存在的主要不足有:1、少量描述和概念不清,比如P9中“姿态传感器作用是提供位置和姿态信息”的说法是不对的,里程计设备也不是姿态传感器。2、P42仿真研究中采用“记录下机械臂末端的运动轨迹,然后将拍好的照片打印出来,并将照片上机械臂末端点连接起来,在纸上绘制出空间的二维平面投影,并与期望的轨迹进行比较分析。”的实验方法有效性和精确性有待商榷,应采用更科学的试验记录方法。3、移动平台路径规划方法创新性描述不足;无逆算法和伪逆算法直接进行对比试验更利于证明无逆算法的优越性。4、主体章节引言不合适,更像是本章研究结论;国内外研究现状的描述较多,但总结提炼存在的问题不够;图3-8,3-10,3-11不清晰。,0,1,0,0,0,0,0,-1,1,0,1,-1,0,0 +102,本文对XHY公司成长性问题进行了研究。论文在相关文献和理论阐述的基础上,对该公司成长性进行了评价,并分析了其成长中存在问题和原因,提出了若干提升的对策建议,选题有价值。作者对该研究领域国内外研究现状有较好的了解和掌握,文献综述及引用正确,研究方法得当,运用规范。论证材料对观点有较好的支撑。 全文论证所依据的理论、概念及分析方法具有较好的合理性与科学性,主要论点清楚,分析和引证资料较为丰富,数据较为翔实,图文并茂,主要观点正确,研究中能够融入作者的见解,研究具有较好的理论意义和实践应用价值。 全文文字通顺,表达较为准确,条理较清楚,结构合理,层次较分明,推理较严密,承上启下,有一定的逻辑性与系统性,写作与图表较规范,学风较严谨。,0,1,1,0,0,0,1,1,1,1,0,1,0,0 +1638,论文紧跟当前基于向量键合图的多领域复杂系统建模和仿真研究热点,提出了3 种基于向量键合图的、应用于多体系统建模的基础模型,通过基础模型可以构造平面多体结构的任意模型,课题研究内容具有理论价值,为多领域复杂系统动力学建模与仿真分析及仿真工具的开发提供了理论参考。作者在基于牛顿-欧拉法、基点法、机器人运动学的向量键合图等3 种基础模型的提出;通过典型的单摆和曲柄滑块两个实例,展示了基础模型的具体使用;分别对某双缸并联平台的驱动部分和多体结构部分进行建模与仿真,以及基础模型搭建双缸并联平台模型的方法具有可行性验证等方面做了大量研究和分析工作,研究方法具有一定创新性。整篇论文逻辑清晰、结构合理、层次分明、文字通顺,形式规范。论文反映了该同学较为坚实的理论基础,熟练运用所学理论的能力,表明了其较强的独立从事科研工作的能力。,0,0,0,0,0,0,1,1,1,1,0,0,0,0 +1190,本文以户外使用环境为技术要求,设计了一种基于新式悬挂系统的户外 AGV,通过 ADAMS 仿真确认了其优秀的通过坑洼的能力,通过 Ansys 分别对驱动单元与车架进行了静力学分析,并根据结果对不足之处进行了改进,使得驱动单元结构合理性以及车架的疲劳寿命得以提升。该论文文献调研充分,相关国内外研究动态有较好的论述,研究目标明确,研究方法合理,研究成果有较强的实用价值。,0,0,1,0,0,0,0,0,0,1,0,1,0,0 +752,无刷双馈变频调速系统主要应用在大功率的风机和水泵上,无刷双馈电机的结构不同于传统电机,属于新型交流电机。由于无刷双馈电机本身特殊的结构,导致了电机内部谐波含量较传统有刷双馈电机大,使得无功功率增大,功率因数降低。为了减小无功损耗,达到改善功率因数目的,论文针对无刷双馈电动机功率因数控制技术进行了基于功率绕组功率因数矢量控制策略的研究。 论文选题具有一定的应用价值,文献综述能够反映国内外该选题及相关领域的发展与现状。 论文的主要研究成果: (1)研究了影响功率绕组气隙磁场的磁场分量,通过电流相矢量图得出,改变控制绕组电流幅值和相位可以控制功率绕组的无功功率。 (2)建立了功率绕组功率因数数学模型,采用矢量控制方法,对控制绕组电流进行解耦控制,实现对功率绕组无功功率的调节,达到改善功率绕组功率因数的目的。 (3)搭建了实验平台,以磁阻转子无刷双馈电机为被控对象,编制了基于功率绕组功率因数矢量控制软件,实验结果验证了所提控制策略的正确性。 论文工作表明作者较好地掌握基础理论、专业知识和研究方法,具有一定的独立从事科学研究的能力。 论文条理清晰、文字通顺、图表规范;材料真实、结论合理;概念清晰、分析严谨、逻辑性强。,0,1,1,0,1,1,1,1,1,0,1,0,0,1 +2103,永磁直驱电机具有高效、节能的特点,本文针对带式输送机特点,开展带式输送机永磁电机直驱系统研究,选题具有较强的工程应用背景和实用价值,文献综述较全面。 论文结合带式输送机的设计要求,对永磁直驱辊进行了分析、设计和仿真。搭建了实验平台,进行了样机空载、负载和温升实验,将设计和样机实验进行对比验证。对永磁直驱辊应力、筒壁的应力进行了分析,对轴的强度进行了校核。针对多电机驱动系统,设计了多机功率平衡方案,并进行了仿真。研究成果具有较强的实用价值,论文工作量饱满,格式较规范,反映作者有一定的专业理论知识,具备独立从事科学研究的能力。,0,1,1,1,1,1,1,0,0,0,1,0,0,0 +1208,本文针对海上兆瓦级风力发电机组为研究对象,基于两种不同的电压等级及极槽配合,设计了两台半直驱中速永磁同步风力发电机,对其本体结构及其相关电磁性能进行设计与研究,选题符合实际,具有一定的实用参考价值。 本文在采用田口算法对发电机进行优化,通过确定极弧系数和斜槽角度的最佳组合方式,实现了发电机效率及永磁体与定子槽相互作用所引起的齿槽转矩的多目标优化。实验结果表明了优化方式的有效性。针对于永磁同步风力发电机的电磁振动问题,对定子铁心进行模态分析,确定其固有频率并对发电机定子进行谐响应分析。结果表明,发电机不会在电磁力频率及结构固有频率处产生幅度较大的共振现象,符合发电机设计要求。对两种设计方案的发电机进行电磁性能的有限元分析。实验结果表明,两台发电机电磁性能均符合设计要求。本文研究工作为实际工程中兆瓦级风力发电机的研发提供了理论参考。 论文设计思路清晰,写书较规范,条理清晰;分析问题具有一定的逻辑性。反应作者在本学科上具有较好的基础理论和系统的专业知识,具有从事本领域科研工作或专门技术工作的能力。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +1551,论文《高风电渗透率系统的调频控制策略研究》选题对风电系统研究重要的理论意义和实用价值。阅读广泛,对本课题国内外研究现状综述全面。论文针对电力系统含通信延迟环节时常规控制受局限的问题,从考虑降低通信延迟对风电参与频率调节时频率稳定性的影响角度出发,提出了基于系统辨识方法与改进的广义预测控制结合的风电机组利用备用功率参与电力系统频率调节的控制策略。构建了考虑扰动项的预测模型基础上,推导出当前时刻系统最优控制率,实现最优控制效果。 作者具有扎实的基础理论和较强的独立从事科学研究的工作能力。论文概念清晰,逻辑性强,写作规范。论文达到硕士学位论文水平,建议组织学位论文答辩并授予硕士学位。,0,1,1,0,1,1,1,1,1,0,0,0,0,0 +1485,高性能钛合金在航空航天、船舶舰艇、武器兵工等领域有着广范的应用前景。论文作者通过不同的热处理制度,获得了四种不同初生α相含量的等轴组织TC4 钛合金以及三种不同片层α相厚度的TC4 钛合金。通过分离式霍普金森压杆对其进行一系列的动态变形实验,并使用光学显微镜(OM)、扫描电镜(SEM)以及电子背散射衍射技术(EBSD)对高速冲击以及强迫剪切变形后的试样组织进行观察及分析,研究了初生α相含量对等轴组织TC4 钛合金动态力学性能以及绝热剪切行为的影响规律,以及片层αs 相厚度对片层组织TC4 钛合金动态力学性能以及绝热剪切行为的影响规律。 论文具有较好的创新性,研究内容比较充实,写作比较规范,基本达到了硕士学位论文的要求,论文进行部分修改后可进行答辩。,0,0,0,1,0,0,1,0,0,0,0,1,0,0 +1368,"该论文在对前人研究工作进行总结的基础上,开展了Si衬底与SOI衬底上SiC压阻式压力传感器芯片的设计、工艺分析、制作及测试工作。系统研究了传感器的灵敏度、非线性、迟滞,取得的主要成果如下: 1)确定了传感器的研究路线,提出了一种基于Si 晶圆的3C-SiC 压力传感器和另一种基于SOI 晶圆的3C-SiC 压阻式压力传感器的设计方案。根据圆型膜片、方型膜片对比分析,结合MEMS 生产线的工艺水平,最终选用方膜设计传感器。通过ANSYS 有限元软件对传感器进行实体建模,模拟和分析,确定了芯片尺寸、膜片厚度、压阻条的摆放位置。 2)设计了传感器的多层版图,并详细给出了两种MEMS SiC压阻式压力传感器的半导体工艺过程设计步骤,指出了制备的工艺难点,并对薄膜外延、SiC 的刻蚀问题和欧姆接触等关键工艺进行详细分析。 3)详细描述了测试环境的搭建和测试过程,给出了初步测试结果,SiC 传感器的灵敏度输出为35.13mV/MPa,非线性度是2.94%FS,迟滞误差为5.84%FS,重复性为2.42%FS。测试结果表明SiC 压力传感器具有良好的压敏特性。 综上所述,该作者的论文达到了硕士学位的论文要求,同意答辩",0,0,0,0,0,0,0,0,0,0,1,0,0,0 +2019,硕士学位论文《SF6替代气体燃弧特性试验研究》使用 LC 振荡回路作为试验电源, 设计及加工燃弧试验罐体, 拼装试验罐体气动操作机构;对电弧电压及电流数据进行处理, 分析燃弧过程中电弧电压及电流波形变化规律, 研究电弧的伏安特性;结合拍摄得到的电弧图像, 研究燃弧过程中电弧形态特征及变化规律。 该论文对实际工作具有较好的指导作用。论文表明作者掌握了具备了较强的运用所学专业知识分析问题和解决问题的能力。论文层次分明,格式正确,逻辑性强,文笔较好。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2210,《柑橘农药自动化喷洒系统的研发及其应用研究》一文针对丘陵山地柑橘果园喷药作业存在的自动化程度低、人工劳动强度大、成本高以及危害果农身体健康等问题,以标准化种植柑橘果园实际应用环境,研发一种柑橘农药自动化喷洒系统。主要工作包括:柑橘农药自动化喷洒系统整机设计;柑橘农药自动化喷洒系统控制硬件进行设计;柑橘农药自动化喷洒系统控制程序设计;柑橘农药自动化喷洒系统应用试验。论文选题具有实用价值。通过论文可以看出:1、论文作者掌握了获硕士学位应掌握的基础知识、专业知识、工具性知识、及实验知识等基本知识;2、论文作者具备获硕士学位应具备的学术素养、学术道德等基本素质;3、论文作者具备获硕士论文应具备的获取知识能力、科学研究能力、实践能力、学术交流能力等基本学术能力;4、论文文字简明,图表规范,条理清晰,实验数据真实有效,反映出论文作者具有一定的独立进行科学研究或独立担负专门技术工作的能。总之,论文达到硕士学位论文水平。论文存在的问题和不足之处:1、部分参考文献年代过早,除非必需,建议调整;2、英文摘要中“prototype”一词位置不对,还需修正;3、论文题目中有“农药”限定词,文中似没有太多关注;4、论文虽提到了“履带式移动底盘为载体的柑橘农药自动化喷洒系统”,但通观论文,对履带式移动底盘这一载体没有给予应有的关注;5、论文摘要和论文结论雷同,摘要应是全文的浓缩版,结论只是论文的一个组成部分,建议修改。,0,0,0,0,1,1,1,1,1,0,0,0,0,0 +1570,论文采用数值仿真的方法,研究了直流真空断路器电弧弧前等离子体的特性进行,选题较新颖。论文在建立直流真空断路器电弧二维微观仿真模型,对直流真空断路器电弧弧前等离子体的微观特性参数进行了研究与分析的基础上,分别研究了均匀磁场和非均匀磁场对直流真空电弧弧前等离子体特性的影响。并比较分析了均匀磁场和非均匀磁场对直流真空电弧弧前等离子体特性的影响,得到了有益的结论。成果对促进直流真空断路器电弧形成机理的研究有积极的作用,不足的是仅停留在理论上。,0,1,0,0,0,0,0,0,0,0,1,0,0,0 +2858,论文以提高孤寡老人入住养老机构的适应性的个案工作介入为主题,以系统理论为理论基础,通过文献法、访谈法和观察法分析了机构老年人的适应性现状和问题及问题的原因,并对其中的孤寡老人进行微观、中观、宏观三个层次的个案介入,以达到服务目标。论文写作规范,思路清晰,文笔流畅,达到硕士学位论文水平。主要的不足和建议:一是,第二章的篇幅过少,对概念和理论的分析需更全面更深入;二是,宏观层面介入是如何进行的?论文中只提到社工应该在哪些宏观层面介入,针对这个个案是如何进行宏观介入的并没有详细说明;三是,题目的问题意识不够,建议明确“孤寡老人机构养老适应性”这一研究问题。,0,0,0,-1,0,0,1,0,1,0,0,0,0,0 +2878,论文在利益相关者理论、信息不对称理论、组织认同理论、信号传递理论、企业声誉理论的基础上梳理出收购方企业ESG表现和目标方ESG表现影响收购方企业价值的影响机制,选取国内A股市场在2016-2018年涉及并购的888家上市公司为研究样本,构建多元线性回归模型,采用计量模型实证检验收购方ESG表现对收购方企业价值的影响。论文运用资料合理,研究成果具有一定的理论意义和实践价值。论文研究方法合理。写作格式需要规范。,0,0,0,0,0,0,1,0,0,1,0,1,0,0 +1743,论文选择乐视网为对象,研究公司多元化经营过程中的负债融资状况及其产生原因,结果发现公司不合理的融资策略带来的融资风险在多元化发展战略下被放大,导致公司经营风险和财务风险同时增加,使得公司经营发展陷入困境。论文选题来源于中国资本市场实践,研究方法、过程和结论对上市公司制定经营战略和融资战略有一定借鉴意义和参考价值。文章结构完整,逻辑清楚,论述较深入,文理通顺,已经达到金融硕士学位论文要求。,0,1,0,0,0,0,0,1,1,1,1,0,0,0 +147,本文以近断层地震为研究对象,通过建立有限断层震源、 地球介质和结构的一体化数值模型, 分别对破裂前方和震中区域的结构进行研究, 根据数值模拟结果得到近断层地震动引起上部结构的动力响应规律,对断层倾角和不同地面高度进行了计算,计算结果与现行的抗震规范相一致,作者对于地层地震的基本观点,对于结构计算知识的掌握达到了硕士研究生的要求,论文写作规范,逻辑性强。,0,0,0,0,1,0,1,0,1,0,0,0,0,0 +2453,该论文选取广西某高校附属医院2016年1月至2021年12月甲状腺结节、PTC的临床数据进行分析。首先对PTC患者的临床数据进行描述统计;再运用医学统计的单因素与多因素分析探寻PTC患病的相关因素;最后,比较了基于传统医学统计筛选指标与基于机器学习的特征重要度筛选指标的差异,根据各自筛选的指标分别建立Logistic回归、CART决策树、随机森林、GBDT、XGBoost五种模型,比较两种方法筛选的指标在五种模型中对PTC的诊断价值,从而选取最佳模型及其指标。该论文选题具有一定的现实意义,对该问题的国内外研究现状有较好的了解,对学科知识掌握较好,能运用所学知识解决医学统计中的一些实际问题。达到了硕士学位论文水平。不足之处:对于本文要用到的模型和方法的介绍篇幅过长,建议适当压缩。,0,1,1,0,1,0,0,0,0,0,0,0,0,0 +478,论文选题符合研究方向。论文充分利用陈独秀留下的文献资料和他人研究成果,探究了陈独秀教育思想得时代背景和理论来源,系统研究了陈独秀教育思想的主要内容,包括教育的本质、教育的目的、教育的对象、教育的方针以及教育的实践,概括了陈独秀教育思想得作用和启示。研究成果有利于推进当代教育事业的发展进步。 论文结构合理,条理清晰,内容丰富,逻辑严密,表达清楚,行文流畅。论文显示作者经过了系统理论知识修养,也经过了规范的科学研究方法训练,能够利用所学分析问题、解决问题,表现出较强的研究能力。,1,0,0,1,1,1,0,1,1,0,0,1,0,0 +2121,在低频隔振研究领域,准零刚度的提出给人们提供了新的解决思路。作者针对恶劣环境下精密设备所面临的低频隔振及冲击离难题,结合双压缩弹簧准零刚度隔振系统提出限位式准零刚度隔离器,开展了双压缩弹簧准零刚度结构的静态特性及动分析,并开展试验研究。论文选题具有一定的理论意义和实用价值;作者调研了大量参考文献,基本掌握了该课题研究进展和已经取得的研究成果,论文撰写规范,图标格式符合规范,论文章节布局条理性较强,研究成果有一定的借鉴意义,作者掌握了与本课题相关的专业理论并具备独立从事科学研究的能力。,0,1,1,0,1,1,1,0,0,0,0,1,0,0 +2594,"论文""CFRP-PCPs复合筋加固钢与混凝土连续组合梁抗弯性能静力试验研究""针对CFRP-PCPs复合筋加固钢与混凝土连续组合梁的力学性能进行试验研究和力学性能分析。论文选题有新颖性,研究成果具有一定理论意义和工程应用价值。论文考虑复合筋数量、面积、形状和预应力度四个设计参数,设置制作6根两跨连续梁进行静载试验,基于试验数据推导了组合梁混凝土板开裂荷载、钢梁屈服荷载、连续组合梁极限抗弯承载力以及连续梁跨中挠度、混凝土板裂缝间距与最大裂缝宽度的计算公式,并进一步对CFRP-PCPs复合筋加固钢与混凝土连续组合梁进行了塑性性能分析,得到复合筋对连续组合梁内力重分布的影响。为CFRP-PCPs复合筋加固钢与混凝土连续组合梁的受力分析计算与工程应用提供参考和借鉴。论文研究目标明确,研究思路清晰,研究方法基本合理,工作量饱满,文字书写规范、流畅且逻辑性强,表明该研究生具有扎实的专业基础理论。个人认为论文达到硕士学位论文要求,同意参加答辩。审阅全文,提出以下建议供参考:1、题目中加固与工程加固易于混淆概念,请加以考虑。2、相比钢筋,CFRP-PCPs复合筋应存在使用期内的松弛和老化问题对其力学性能影响,烦请课题组斟酌。3、试验采用千斤顶加载是否考虑加载部位的局压影响和加载区域与理论加载点差异,分析中更应考虑其影响。",0,1,0,1,1,0,1,0,1,0,0,1,0,0 +2371,本文以提高车辆行驶稳定性为目的,针对分布式驱动系统,对车辆行驶稳定性控制策略进行研究。初步评审意见如下:1.论文首先对分布式驱动电动车辆的动力学模型,建立了14自由度的车辆动力学模型建模。然后,提出一种分层的车辆行驶稳定性控制策略,分配期望的轮胎力。最后,针对高附着路面系数匀速直线以及低附着路面系数,在匀速直线、对开工况、高附着路面系数、双移线四个工况下对车辆行驶稳定控制策略进行研究。论文整体研究具有一定的创新性。2.论文作者基本掌握了本领域的发展方向和主要文献,能站在分布式驱动电动汽车控制前沿开展课题研究和理论探索,具备独立从事电动汽车电驱系统技术应用的科研工作的能力和坚实的本学科基础和扎实的操作技能,基本达到硕士研究生的要求。3.论文书写基本规范,但是部分格式存在问题,例如(不限于):摘要的第四行,“文本”应修改为“本文”。论文逻辑结构清晰,文字表达流畅,建议作为硕士学位论文安排答辩。4.如果能够增加与现有分布式系统控制器设计方法的对照试验,结论可能更有价值。综上,论文具体工程方案设计思路新颖,采用的技术路线先进,工程难度适中,工作量饱满,说明作者在本学科已具有较扎实的专业理论基础,能够应用所学知识和通过阅读文献解决具体的工程问题,具有较强从事科研工作的能力。论文思路清晰,文笔通顺,图文规范。论文达到了硕士论文水平,同意该生按期参加答辩。,0,0,1,1,1,1,-1,1,1,0,0,1,0,0 +36,1:本文利用小波包变换理论,针对地震动非平稳特性、地震动时程空间相关性分析、地震动时程模拟、空间相关地震动场模拟等问题展开研究,选题有较强的理论意义和应用价值; 2:论文基于小波包变换理论,建立了基于小波包变换的时变功率谱估计的方法; 基于台湾 SMART-1 地震动台阵实测记录, 利用 MATLAB 平台编制程序进行空间相关 性研究;基于小波基频带的正交特性,利用小波包重构建立了一种新的地震波模拟方法;并以该方法为理论基础,在 MATLAB 环境下进行程序编制,实现了基于给定的目标功率谱的地震动加速度时程模拟,并通过算例验证了该方法的正确性;基于输入的地震动历史时程,对其小波包分解得到的分信号进行调整,再通过小波包重构得到地震动时程。论文成果有一定的创新性。 3:论文主要通过理论分析并结合实例进行计算分析,方法基本合理,反映论文作者对本学科基础理论知识比较扎实,有一定的科研工作能力; 4:论文整体构架一般,写作一般,逻辑性一般。,0,1,0,0,1,1,0,0,0,0,0,1,0,0 +925,该文章以电影“作者论”为切入点,通过分析滨口龙介的电影,来探讨其在主题意蕴、叙事策略以及影像建构方面所反映出的“作者”特质。选题具有一定价值,研究思路较为清晰,拥有一定想法。对上次的问题已经进行了一定修改。逻辑较为严密,语句通顺,达到硕士毕业论文水平。同意参加答辩。 论文缺乏核心理论的支撑,通篇都是泛泛地在描述,深度不够,说服力也不够。例如(二) 身体性在场的探索一段中,大量描写: “所谓身体性在场,简单来说是指在剧本创作和人物塑造过程中,不能忽视表演者自身的身体性在场,虚构故事中的角色不能完全脱离表演者的身体特征而存在,演员通过表演所呈现出来的角色魅力,一部分也来自表演者自身的身体印象”。此处“身体性在场”这样的提法谁最早提出?后续有何人发展?还是只有滨口首次提出?在哪里提出?出处为何?既然文中提到:“关于这一创作理念,滨口龙介在《在摄影机前表演》中,较为详尽地阐述了他对表演者的身体性问题的理解及其在《欢乐时光》中的实践……其中说道,《欢乐时光》的剧本在实际拍摄开始后不断修改,直到达到第七稿”。显然这些语言不是在阐述一个理论,而是在描述某人的创作过程。显然思考深度和理论涵养不够。类似问题还有,不一一赘述。,0,1,0,0,0,0,0,1,1,0,0,0,-1,0 +2048,外骨骼机器人的优点在于可以依据人体的运动意图做出反应,协助人们完成对应动作。表面肌电信号实时性好、易采集,可以准确的反映下肢运动意图。 该论文围绕人体下肢表面肌电信号开展研究,选题正确,具有理论意义和重要的应用价值。 作者广泛阅读了相关文献,对研究和应用现状进行了分析和综述,开展了有价值的研究工作。论文的主要有特色的工作和取得的成果如下: 1、 分析了人体行走的步态,通过分析表面肌电信号的产生机理和生物学特征,采集表面肌电信号用于步态相位模式识别。 2、 采用小波阈值去噪和巴特沃斯滤波的方法对肌电信号处理,提高信噪比。用主成分分析法提取有用的特征。 3、 提出了SVM-KNN算法,提高了超平面附近数据的分类准确率,采用遗传算法和粒子群算法两种参数优化算法进行优化。实验结果表明基于粒子群寻优下的SVM-KNN算法对步态相位识别率高,缩短了识别时间。 论文反映作者已经掌握本专业的基础理论知识,具有从事本专业科研开发的能力。论文叙述较清楚,结构正确。论文已经达到硕士学位论文的水平。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +785,永磁磁阻电机凸极率比较高,在输出转矩中磁阻转矩较大。因此,同等规格的电机,它的永磁体用量更少,而且它还具有与稀土永磁电机相似的功率密度和效率,这就使得其制造成本比较低。论文选题正确,有一定的理论研究意义和工程应用价值 论文主要开展了如下工作: 1、研究了异步起动永磁同步电机和永磁辅助同步磁阻电机,针对这两种电机存在的问题,提出用异步起动磁阻辅助永磁电机取代异步起动永磁同步电机; 2、阐述了异步起动磁阻辅助永磁电机的磁阻转矩原理, 讨论了不同永磁体层数和不同永磁体厚度下电机凸极率和磁阻转矩利用率的变化,还有转子槽数、槽宽对它们的影响;并与采用铁氧体永磁材料时进行对比分析;然后,基于以上分析确定电机转子结构,设计了一台 3kW 异步起动磁阻辅助永磁电机。 3、研究了电机的异步起动过程进行了理论分析,并通过有限元分析法计算该电机的堵转电流、堵转转矩以及起动性能;最后通过与异步起动永磁同步电机的比较;总结了异步起动磁阻辅助永磁电机的优势和不足。 4、完成了转子结构不同的电机进行仿真分析,得到的凸极率和磁阻转矩利用率的变化规律,为异步起动磁阻辅助永磁电机的进一步设计提供了参考依据。 论文内容比较完整,层次比较分明,逻辑性较强,图表附件格式规范,引文合理,达到硕士论文水平,同意提交答辩 。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +281,"该论文主要运用自由现金流理论、最佳现金持有量理论、存货管理理论、应收账款管理理论,采用文献研究法、案例分析法、调查法、层次分析法,以BM 制造公司为对象, 分析企业现金流管理效率和现金流的健康程度。 作者利用AHP方法,构建层次分析体系:将加强BM公司现金流管理作为层次分析法中的最高层——目标层。将获现能力、盈利能力、财务弹性、偿债能力四项内容作为准则层。而对于指标层的构建则选择能反映该四项内容的具体财务指标。针对获现能力,将其分为“全部资产现金回收率、每股经营现金流量、销售现金比率”三项具体指标。对于盈利能力分为“净利润现金比率、成本费用利润率”两项指标。针对财务弹性,将其拆分为“再投资现金比率、现金股利支付率”两项基本指标。对于偿债能力方面,将其分为“即付比率、现金流量比率、现金流量利息保障倍数”三项基本内容。通过判断矩阵的构造以及使用规范列平均法求得权重,最后得出现金流管理效率公式,即综合评价数值V等于各财务指标与其权重乘积之和。 论文通过上述公式分析指出,2017年度BM公司的现金流状况在近三年中相对“健康”。但因为综合评价数值与同行业两家优秀公司比较相对较低,所以BM公司现金流管理评价不乐观,仍然存在着许多有待改善的问题。 作者分析认为,BM公司在现金流量管理上存在的主要问题是:1.现金流预算制度不完善。2.筹资渠道单一。3.现金流预警机制不健全。4.项目之间缺乏统一管理规范。5.现金周转期较长。6.现金流监管不严谨。7.现金流管理与业务流程脱节。8.缺少资产购置规划。作者分析存在问题的原因是:1.现金流管理意识薄弱。2.制定的现金流管理目标不合理。3.缺乏科学的管理方法和管理手段。4.现金流的管理没有针对本公司所属行业的特点。5.没有针对行业及自身所处发展阶段特点进行管理。 作者提出BM公司现金流管理优化对策:1.改进现金流管理的基本思路:包括明确公司现金流管理的目标,提高公司管理人员对现金流管理的意识,提升现金流管理的战略思维。2.加快现金流的流速:包括延长应付账款付款期限,缩短应收账款回款期,充分利用信用期限。3.采用帕利普框架改进现金流的管理。4.建立完善的现金流风险预警机制。5.完善现金预算和监督工作:包括提高现金预算工作的质量,增加现金预算工作的监督力度。 论文开展的讨论丰富了企业现金流管理的研究,为公司战略管理及投资者提供了参考。",0,0,0,0,0,0,0,0,0,0,0,1,0,0 +311,该文以一台高速永磁电机为研究对象,分析其内部磁场、温度场及应力场的特点,并将其与硅钢片的损耗特性相联系,从而确定频率、温度及应力对电机铁耗产生影响,并且考虑这些物理因素对铁耗计算模型进行改进,加以试验验证,为高速永磁电机铁耗计算方法提供新的思路。分析了定子内部频率为工频十倍的高频磁场;显示最大磁通密度点发生在槽底部,漏磁通量极少;交变磁化和旋转磁化同时存在,且旋转磁化轨迹为不规则椭圆,其磁通密度波形存在大量谐波;因此,定子磁场的高频、旋转磁化和谐波对电机铁耗的影响均不可忽略。分析了定子内部温度场和应力场。在电 机铁耗计算过程中考虑温度和应力的影响。提出综合考虑多物理因素影响的铁耗改进模型。硅钢片磁特性测试试验。测试了硅钢片在不同频率、不同温度以及不同应力下的磁化特性和损耗特性;硅钢片的损耗随频率和应力的升高而增加,随温度的升高而降低;频率和温度主要影响涡流损耗系数,而应力主要影响磁滞损耗系数。 该文的研究对提高我国高速电机的发展有重要意义,具有一定的新意,所得结论具有一定的参考价值。显示了该生掌握了较雄厚的基础理论知识,具有一定的科研能力。 该文立论正确,论述有据,逻辑较为清晰,章节安排合理,图表符合工程要求。达到了工学硕士水平,修改后可以考虑答辩。,0,1,0,0,1,1,1,1,1,1,1,1,0,0 +85,"本论文在文献调研基础上,对原有的喹唑啉类抗肿瘤药物进行了修饰和改造,设计并合成了一系列喹唑啉类衍生物,论文对所合成的部分目标化合物进行了抗肿瘤活性初步筛选,并对其抗肿瘤活性进行了初步研究,根据活性测试结果,对其构效关系进行了初步研究。论文研究具有较大理论意义和实用价值。论文涉及化学、生物学和医学,系统深入,逻辑性强,是一优秀的硕士论文。 作者在读期间发表了8篇论文,一项专利。这些工作的完成,表明作者基础扎实,具有较强的综合能力。",0,1,0,0,0,1,0,0,0,0,0,0,0,0 +2378,本文运用叙事方法介入精神疾病患者的康复工作,在案主需求评估、介入方式及评估环节,皆较为规范,篇章布局合理,行文流畅清晰,结论具有一定的说服力,在学理方面具有知识探索及积累,在实践层面亦对社会相关个体与部门工作皆有助益。不足之处,精神病人的评估方面,仅测量其生活自理、社会融入等状况,未对精神疾病所致之行为能力予以描述或测量,叙事疗法对案主完全行为能力具有一定的要注,望作者审慎处理这一环节。作者在结论方面,在经验基础上的抽象或提升方面,还有较大调整空间。宜在知识增量层面,提升论文创新价值。,0,0,0,0,0,0,0,0,-1,0,-1,-1,0,0 +2328,本文围绕分布参数随机系统的有限时间稳定性问题展开研究,分别进行了线性分布参数随机系统、同时存在外部扰动输入和模态切换的情形下线性抛物型分布参数随机系统和线性脉冲分布参数随机系统的有限时间稳定与镇定问题。本文选题具有一定的理论价值,论文反映作者对查阅了大量的文献资料,并在此基础上进行归纳整理,写作规范,逻辑性强。有一定的创新意义和研究价值。具体问题如下:1、论文中存在语句不完整,请仔细检查。2、英文缩写应先给出完整的英文解释,如BIBO、LMI和DLMI等。3、1.5节数学准备放到第一章是否合适?请考虑。4、本论文所有的仿真都为数值仿真,是否考虑过针对某类系统进行具体仿真?,0,0,0,0,0,0,-1,0,1,0,0,1,0,0 +2307,本文结合国家知识产权局、T/CAETA的专利评估指标体系,并通过德尔菲法从技术、法律、市场、主体四个维度下构建了包含18个特征指标在内的专利质量价值评估指标体系。基于AHP-熵权法的组合赋权-云物元的评估模型在以机器学习为技术领域的专利质量价值评估中具有一定的可行性和适用性。论文逻辑清晰,结构合理,形式规范,达到了资产评估专业硕士论文要求,同意修改后答辩。修改意见:1、P9,介绍了专利的三种分类,但是在模型构建上,本文构建的评估方法对三种类型的专利质量价值评估具有通用性吗?2、作者的实证结果分析,给出了专利质量价值评估的等级,是否可以给出具体的评估值呢?以便对专利资产转让等具有一定的借鉴。,0,0,0,0,0,0,1,0,1,0,0,1,0,0 +2685,论文通过实地调研和资料查阅,以桂西北地区程阳八寨为案例,针对传统吊脚楼围护结构进行被动式改造更新,并分析其有效性和可行性。论文选题结合传统民居生活中遇到的实际住房问题,具有较好的现实研究意义。作者具有一定的专业研究基础能力;文本写作规范程度一般,文献资料较为齐全,参考文献格式需要重新修正,,尚未发现不当引用及抄袭现象。论文已经达到硕士学位论文水平。建议如下:1、摘要有头重脚轻之嫌,建议对研究内容应进一步阐述;2、图4.1-11和12文本框应去除;3、论文工作量相对来说略偏少;4、参考文献应严格按照国标方式进行撰写。,0,1,0,-1,1,0,-1,0,0,0,0,0,0,0 +2141,针对高速永磁电机高速、高频引起的转子温升造成热应力增加工作特点,论文研究了热固耦合模式下的转子热应力及动力学特性,论文研究对于高速电机设计具有重要意义。论文主要进行了以下研究工作: 1. 利用ANSYS软件对均匀温度场、三维温度场及热固耦合作用下的热应力计算分析,并进行了结果对比。 2. 研究了静态过盈量、护套厚度、永磁体分段及线性膨胀系数等不同因素对高速表贴式永磁电机热应力影响,获得了一些有价值的结论。 3. 基于热固双向耦合模式,研究了内置式高速永磁电机的转子强度问题,分析了高速永磁电机稳定运行时的应力分布。 4. 研究了轴承刚度、转子结构尺寸对临界转速的影响,并对高速永磁电机的转子疲劳破坏进了的分析。 总体而言,论文作者能利用ANSYS软件对高速永磁电机转子进行热应力分析,但研究内容过多过散,缺乏相关问题的深入研究,研究方法上也未见有创新性研究思路。在论文写作上,总体结构基本合理、语句基本通顺,写作基本规范。,0,1,0,0,0,0,1,1,1,-1,0,0,-1,0 +73,本论文为提高碳纤维的表面性能,以 LiClO4为电解质,采用甲氧基聚乙二醇丙烯酸酯(MPGA)和导电性优良的聚噻吩(PTh)为单体,通过循环伏安法电化学聚合对碳纤维进行改性。分别从单体浓度、循环次数、扫描速率和电解质浓度四个方面研究其对电聚合反应峰值电位、电流的影响,阐明了电化学聚合机理,在此基础上,复合了不同浓度MPGA 和 PTh ,并对MPGA和PTh共聚物的力学性能加以比对。本论文选题应用背景突出,具有较强的实用价值。学科知识基础扎实,论文写作规范。,0,1,0,0,1,0,1,0,0,0,0,0,0,0 +148,本文以某职业院校为课题研究背景,结合该院校师生调研所得的无线网络需求及校方网络搭建目标,设计并实现了覆盖校园的无线网络。研究内容主要为针对该院校的无线网络需求,对办公室、教室、图书馆、宿舍等地区进行无线局域网络的全面覆盖,重点研究组网方案以及所需设备类型。论文行文基本流畅,写作基本规范。论文结构组织基本合理,逻辑严谨。研究工作可用,具有一定的创新价值,实验论证丰富。,0,0,0,1,0,0,1,1,1,1,0,1,0,0 +2515,该篇文章在选题方面具有现实研究性与研究意义,贴合当前电影文化产业发展现实,全文结构安排合理,思路清晰,语言流畅,观点精炼明确。与资产评估专业学习的内容紧密结合,能够体现专业特色。由于行业特殊性,资产评估在电影行业研究比较困难,研究对象的选择创新性较强,且数据选择涵盖范围较广,分析角度更为全面;并且对研究对象影响因素的选择合理;研究方法也是根据变量进行了合理的选择;研究结论围绕研究影响因素得出,清晰明确;案例选择贴合文章研究内容,具有一定的代表性。但是,仍然存在一些不足之处。建议补充文章研究框架,使文章结构更加清晰明了;影响因素分析不够全面,选取的预测参数较少,一些宏观因素由于无法量化没有被纳入其中;受到行业特殊性限制,数据获取来源不够准确,数值不够精确,可能会对研究结论造成一定的影响。总体上符合硕士毕业论文要求。,0,1,0,0,0,0,1,1,-1,1,1,1,0,0 +1773,论文研究汽车鼓式制动器的热特性仿真和优化设计问题,选题具有理论意义和工程应用价值。论文建立了鼓式制动器的三维热仿真模型,仿真分析得到了鼓式制动器散热的主要部位;对比分析结果验证了通过在制动鼓内部开槽优化鼓内空气流速方法的可行性,以紧急制动为验证工况,对比分析了开槽形式和结构参数对制动鼓温度特性的影响,获得了开单向螺旋槽型可取得最佳散热效果的研究结论。 论文结构完整,撰写较规范,分析和验证充分,达到了硕士学位论文的水平。论文工作表明论文作者掌握了本学科坚实的基础理论和系统的专门知识,具有了从事科研工作的能力。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2560,该文针以球形支座为研究对象,通过有限元模拟,提出智能球形支座设计,并开展试验研究,具有一定的研究价值。文章表述清晰、行文流畅,研究思路和方法较合理,内容较完整,同意修改后答辩。文中存在如下几个问题:1、单位应空格。2、P26页最后一行~P27页第一行是否存在笔误?3、P54最后一行关于支座Ⅱ描述重复且意思对立,请核改。4、支座设计方案一和方案二采用了不同的压力传感器,且布设位置不同,考虑到球形支座受载过程较为复杂(从方案三的两个测点数据差异较大即可看出,且从概念设计的角度看,方案二测点位置较方案一测点位置的数据稳定性更好,因此,直接将设计方案一和方案二进行比较似有不妥。建议增加一个设计方案,即在方案二位置布设薄膜压力传感器,从而更加准确地比选。5、第四章中三种支座试验数据表头所用“标定荷载”是否合适?宜改为“荷载”。6、摘要第一段中由传统的桥梁检测管理模式直接引出本文的研究,有些唐突,建议参考正文中的相关表述进行修改。,0,1,0,1,0,0,-1,1,-1,1,0,0,0,0 +514,论文研究超磁致伸缩式振动能量发电技术,选题具有重要的理论意义和工程应用价值。 论文基于Jiles-Atherton 磁化模型建立了惯性激励下悬臂式Fe-Ga 合金振动发电系统的机电耦合数学模型,搭建了悬臂式Fe-Ga 合金振动发电系统实验平台。在惯性激励的实验条件下探究了开路状态下激励加速度、频率以及负载电阻等因素对发电性能的影响。在瞬态激励条件下探究了Fe-Ga合金的发电性能。最终完成了对以Fe-Ga 合金材料作为核心部件的磁致伸缩振动发电系统的结构参数设计,并加工制造出了悬臂式Fe-Ga 合金振动发电系统样机。 论文结构合理,条理清晰,书写符合规范,逻辑性强。表明作者掌握了本门学科的基础知识,能应用相关知识开展科学研究,论文达到了硕士论文水平。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +1956,论文主要就低压串联电弧故障检测及其特征提取识别进行研究,选题贴近低压电器应用实际,具有一定的理论意义和较广泛的应用前景,选题方向明确。论文在介绍电弧故障模拟实验平台基础上,模拟电阻、阻感、手电钻、电脑、电磁炉负载等工况条件采集线路电流信号,并仿真进行波形周期性及谐波等特征分析;论文介绍了变分模态分解(VMD)和样本熵,基于VMD和样本熵进行低压串联电弧故障特征提取,VMD分解电流信号获取故障本征模态分量IMF,分析了提取电弧故障特征向量过程,介绍了不同负载工况故障电弧特征的熵值表现;论文阐述了BP神经网络、SVM支持向量机,分析将电流信号本征模态分量的样本熵作为特征向量,输入ELM极限学习机训练模型识别故障电弧,分析了基于隐层输出矩阵的极限学习机在故障电弧诊断模型训练时间和识别准确率方面与神经网络、支持向量机模型的差异。论文反映出作者在硕士研究生学习过程中较好的掌握了课题相关的专业理论知识,具有一定的从事科学研究的能力。论文篇章结构基本合理,概念比较清晰,论述条理基本清楚,反映作者有一定的文字表达能力,论文写作规范性基本符合硕士论文要求,同意在修改并经原指导导师通过后提交答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +1064,本课题以12kHz/50kW的中频感应加热一体机为研究对象,对中频感应加热一体机进行了状态分析,对中频感应加热一体机的温度场进行了分析。论文选题具有一定的理论研究应用和实际的应用价值。论文对本课堂的国内研究背景进行了总结分析,通过理论和实验相结合的方法进行分析和验证,得到了预期的研究结果。论文文字通顺、结构清楚、层次分明。可以看出改同学已经具备了一定独立从事科学研究的能力,具备了研究生的基本学术水平。建议论文修改后答辩。,0,1,1,0,0,1,0,1,1,0,0,0,0,0 +950,论文通过分子内光诱导单电子转移(SET)反应,向天然环肽Hikiamide B结构中引入邻苯二甲酰亚胺片段,设计并合成了五个环肽类似物1-5;通过分子内光诱导单电子转移环化反应设计并制备了一系列手性缬氨酸基环肽。通过多种波谱手段对所合成环肽类化合物进行了表征,并进行了抗肿瘤活性测试。该论文对文献进行了较系统的归纳和总结,研究目标明确,思路清晰,书写较规范,有一定的创新性。所得结果为设计和合成具有特定构型的环肽提供了参考。,0,1,1,0,0,0,1,0,1,0,1,1,0,0 +2174,作者的课题选题及研究内容具有重要的工程应用价值。 研究中作者查阅了大量针对转子碰摩的测量、故障信号处理与特征提取、故障诊断方法的文献。确定了声发射技术对转子系统的早期碰摩故障进行诊断的优势。 通过 对不同转速和不同碰摩程度下的转子碰摩声发射信号的变化进行了分析研究,针对早期碰摩故障的声发射信号的特征,提出将自适应噪声完备经验模态分解与1.5维Teager能量谱相结合的方法,应用于转子系统的早期碰摩故障进行诊断识别。 论文反应出作者研究工作充实,方法适当,理论知识掌握全面且深入。论文撰写严谨规范,结构合理。,0,1,0,1,1,0,1,0,1,1,0,0,1,0 +850, 该论文的题目为“歌剧《牧人王》中阿明塔的角色性格研究”,关于“阿明塔”的角色性格研究的论文并不多见,所以,该选题有一定研究意义。论文从莫扎特的创作风格与歌剧《牧人王》的剧情简介入手,对剧中的不同角色以及“阿明塔”的咏叹调《我爱你,这爱情坚贞》的情感脉络和演唱特点展开分析,论文结构基本合理,论述分析比较详细,语言逻辑基本清楚,对于把握“阿明塔”的人物特点和演唱这首咏叹调,有一定的参考、借鉴意义,论文中还有一些小问题有待商榷,建议修改后参加论文答辩。,0,1,0,0,0,0,0,0,1,0,1,0,0,0 +1586,论文对风力发电机叶片吊具的机械结构、液压系统进行了分析,主要做了如下工作:1)介绍了风力发电机叶片吊具液压系统的组成及其工作原理;2)建立了风力发电机叶片吊具阀控液压马达系统的数学模型;3)对风力发电机叶片吊具的同步提升PID控制进行了优化;4)对风力发电机叶片吊具的模糊滑模控制器进行了设计与分析。该研究对提升风力发电机叶片吊具的使用性能和工作效率有一定帮助,具有一定的工程应用价值。 论文理论分析较为深入、系统,仿真结果真实、可靠,但论文还存在如下问题:1)论文未针对风力发电机叶片吊具机械结构、液压系统提出较为明显的创新;2)论文文笔不够流畅,口语化严重,部分格式不规范。,0,1,0,0,0,0,-1,-1,0,0,0,0,1,0 +2099,永磁同步电机高效节能,控制方便,应用广泛。论文以立体化仓库用堆垛机驱动电机为研究背景,在充分考虑堆垛机不间断运行特点的前提下,设计了一台堆垛机用近极槽的低速直驱式永磁同步电动机。提出采用近极槽、不同极弧系数组合以及斜槽的方法对永磁电机进行优化设计,并充分考虑电机变频运行的实际情况,用三维有限元软件对电机的电磁场、温度场和损耗进行计算和分析,取得了一些有益的结论。论文结构合理,结论正确,达到硕士研究生学位论文的基本要求。,0,0,0,0,0,0,0,0,1,0,1,0,0,0 +1366,该论文以一台超高压电力变压器为模型,以饼为单元建立等值电路并对其波过程进行分析,电力变压器的中性点接地更有利于电力变压器的过电压保护;将波过程的计算结果作为边界条件搭建纵绝缘有限元仿真模型,并分析变压器绕组在雷电冲击下薄弱环节处的电场强度,典型位置最大场强位于17 号单元拐角处,并且且电位线在此处分布不均匀;最后分析研究绝缘纸相对介电常数和匝绝缘厚度对电场强度的影响。该论文的研究内容设计尚可,但是实际工作量较小,创新性不大。,0,0,0,-1,0,0,0,0,0,0,0,-1,0,0 +2218,1、该论文总体论述了大功率商用车电源逆变器及其控制方法,归纳总结了已有的方案及其控制方法,基本完成了论文选题的初衷。论文文字工整,错误较少。2、一般性的论述较多,深入论述可以加强一些,还可以增加明确看到论文的工作量的部分(这部分需要增加,比如源代码、接口设计、硬件设计)。3、论文对关键技术指标可以做出计算与测试。4、原创性的研究可以明确体现出来。5、应用到实际中的情况,与现有产品的对比情况,可靠性等等可以稍作展开论述。总体上,该论文基本上是完整的,达到了硕士学位论文水平。修改过可以进行答辩。,0,0,0,0,0,0,1,0,0,0,0,0,0,0 +2603,论文“网络司法拍卖中买方关注度对资产评估质量的影响---基于淘宝拍卖网法拍房数据的实证研究”,通过网络司法拍卖中买方关注度对资产评估质量的影响研究,关注到了当前资产评估研究领域的新问题,选题较为新颖,论文对网络司法拍卖和资产评估质量的相关概念和研究进行了梳理和归纳,采用所学专业知识对其进行论证分析,对了解资产评估质量影响因素,促进资产评估体系的完善具有一定的理论和实践意义。论文论点清晰,论证分析有理论和方法基础,文献资料掌握全面;论文结构完善,层次分明,有一定创新性,文笔流畅,表达清晰。文章格式符合学术规范。通过论文的写作可见,该生掌握了相关的基础理论以及案例研究方法,具有一定科研方面的研究能力。综上,论文达到了硕士学位论文写作水平。论文存在如下的不足需要修改:1、论文研究分析过程中网络司法拍卖和资产评估质量的分析,做了大量的文献梳理,但对资产评估质量及影响因素等相关基本概念和理论的界定和阐述不足,理论基础对研究的支撑显得薄弱。2、论文从文献研究归纳,或论文分析中对网络司法拍卖关注度和资产评估质量的关系分析不清晰,逻辑关系未体现。3、对网络司法拍卖关注度和资产评估质量影响的分析不足,指标的选择分析缺乏,导致影响因素指标作用不清晰,对研究结论的支撑未凸显,实践应用意义不突出。4、成交价与评估价之间存在差异的原因很多,网络司法拍卖关注度和成交价与评估价之间差异的关系,逻辑不是很清晰,导致假设设定过于牵强。5、建议对资产评估质量影响因素从理论和实践等方面进行分析总结,提出利用样本分析的目的和分析方向,再针对性提出假设和技术方案,增强论文的系统性和逻辑性。,0,1,0,0,1,1,1,1,1,-1,0,1,0,0 +806,在自然语言处理中,依存句法研究越来越重要,在文本挖掘中有着重要的应用。本文采用深度学习方法对此进行了新的探索,选题具有重要的理论意义和应用。在论文中,首先使用基于双向长短期记忆网络和深度图解码相结合的依存分析方法对句法结构及词性标注进行统一建模;然后,通过词性标注和深度图相结合来处理依存句法分析问题,可以在较大程度上减少在提取特征任务时因为词性标注所带来的错误蔓延并解决多层次特征无法获取的问题;进一步,使用多个多层感知机(MLP)分别预测依存弧和依存标签;最后,利用React、ES6和SVG等技术实现前端用户界面的显示及用户登录、文本训练、文本预测、依存图的展示等功能,并实现服务器端与客户端数据的交互,并验证了所提出的系统的有效性。在文献方面,本文较全面的反映了依存句法方面的主要研究结果和动向。本文的理论分析和推导正确,所采用了数据及其计算结果是真实可靠的。论文表述清楚,写作规范,逻辑性强。通过该论文也反映出作者已具有很好的基础和专业知识,并具有一定的独立科研能力。总之,本文是一篇合格的硕士学位论文。,0,0,0,0,1,1,1,1,1,1,0,0,0,0 +871, 数学文化对于培养学生的数学学习兴趣而言较为重要,而数学文化在小学数学课堂教学中的渗透,也是小学数学教学的相对难点之一。对于这一问题进行探究,具有一定的社会价值。作者采用了问卷和访谈等方法,对于小学数学教师群体进行了研究。其整体研究思路较为合理,研究方法选择得当,结果和结论具有一定的教育启示。 就论文写作整体而言,结构完整,格式规范,语言流畅,逻辑清晰,也采用了大量图表对于研究结果进行说明,虽然有些小问题,但具备了硕士论文的基本水准。,0,1,0,0,0,0,1,1,1,1,1,0,0,0 +1069,本论文的选题大小适中,具有理论性和现实针对性,符合相关论文要求。论文的中外文文献较为丰富,并具有权威性,作者的运用也较为合理,问题提炼也较为准确。在借鉴国外及国内的相关立法、案例的基础上,明确提出了对于垄断性忠诚折扣行为的概念、现实问题,尤其是综合性的规制措施等,具有一定的立法参考价值,反映出作者态度认真,研究刻苦的一面。同时,作者的专业理论知识丰富,掌握了一定的独立研究能力。在写作上用语使用较为规范,尤其体现了一定的理论思维能力。,0,1,1,0,1,1,1,0,1,0,0,0,0,0 +574,论文以剩磁预测的变压器励磁涌流为研究对象,论文的选题具有一定的理论和实际应用价值。 作者在大量阅读国内外相关文献的基础上,做出了如下研究成果: 论文主要研究了变压器的励磁涌流现象,对励磁涌流现象的产生原因进行了详细分析,通过 Everett分布函数的方法建立了基于磁导率计算的Preisach数学模型,并进行了实验验证,论文的结果具有一定的创新性。 论文结构严谨,调理清晰,写作规范,逻辑较强。表明作者基本掌握了变压器的基本理论和分析设计方法,达到了硕士论文的要求,同意答辩。,0,1,1,0,1,0,1,0,1,0,0,1,0,0 +2566,该研究结合毕业设计探讨了地域文化与湿地公园景观设计的联系,选题具有一定的应用价值,但理论性较弱。论文写作条理清晰,方法运用合理,表达基本通畅,工作量符合要求,总体达到了专业型硕士学位论文的水平。同时,关于设计案例与地域文化之间联系的分析仅停留在表面,作者虽将一些文化符号运用在设计中,但这种联系较为表浅,导致整体设计缺乏文化深度,如何体现出湿地景观与地域场所精神之间的关系?建议作者通过补充相关分析,加深对于地域文化精神的理解,使得设计作品更有内涵。,0,0,0,1,0,0,0,1,1,1,0,0,0,0 +2758,论文选题具有一定前瞻性,研究成果具有一定创新性,能够准确把握该领域研究动态,语言表述准确,研究方法设计合理,对实际设计有一定指导意义,已达到硕士学位论文水平。但是存在如下问题:1.图2-3试件表面极不光滑且存在较多气孔,是否由于制件不均匀和未充分振捣所致?2.图2-4给出了立方体抗压曲线四阶段特征,各阶段在加载曲线上是否有明显的分界点?3.图2-5、2-6的图名英文翻译有误,图2-7、图2-8图名翻译应与图2-5~2-6保持一致;4.图2-12的5幅子图数据波动剧烈,弹性阶段、多裂隙阶段和破坏阶段分界并不明显,请给出划分依据;5.论文第18页,作者引用文献【64】说明“粉煤灰的光滑玻璃珠状,能更好地发挥桥接作用,改善试件的抗拉延性和控裂性能”,引用观点不合理;6.表2-7中,存在多处细节错误;7.第三章出现两个公式(3-1),第二个公式(3-1)中的SA要解释含义;8.建议对第五章标题进行简化;9.式(5-17)、式(5-18)均为多项式拟合得到的近似表达式,缺乏明确的物理意义;10.文章最后图5-19仅给出了对损伤模型进行了验证结果,未对本构模型进行验证。,0,1,1,0,0,0,0,1,0,0,0,0,0,0 +1027,《微量点胶工作参数配置方法研究》提出了一种基于微量胶滴表面张力的超微量精密点胶系统并探究了对工艺参数的推定方法,对微量点胶原理进行了分析介绍,运用流体力学及仿真软件进行了点胶模拟分析,采用Matlab及神经网络模型手段获取了移液针尖端直径、停留时间、点胶速度对胶斑直径的影响权重。最后,通过正交试验获取了移液针先端直径、移动速度、停留时间对胶斑直径的影响顺序,验证了神经网络经验模型对于工艺参数影响力的判断。 该论文总体结构基本合理,相关理论及术语阐述清晰,研究方案合理,研究深入程度适中,研究结论可信,一定程度上具备独立从事科学研究的能力。该论文基本达到了硕士论文的水平,同意修改后直接答辩。,0,0,0,0,0,1,0,1,1,0,1,0,1,0 +891,本文题目为:核心素养视阈下研究性学习在高中物理实验课中的应用与实践,作者将研究性学习的理念应用于高中物理实验教学,从而在最大程度上促进学生物理学科核心素养各方面的提升。作者论述了研究课题背景,介绍国内外相关内容研究现状,阐述本文研究思路与研究方法及研究性学习理论基础,并对相关概念进行界定。通过观察、发放调查问卷等方式了解当前高中物理实验课教学模式,通过分析学生对物理实验课的态度、学生的自学能力等,指出传统物理实验教学模式在提升学生核心素养方面存在的不足,提出将应用研究性学习理念应用于物理实验教学的使用策略和应用流程,设计相应教学设计和实践教学案例,将新实验教学方式应用于物理实验教学实际,并分析新的教学方式对物理学科核心素养各方面的提升作用,从而得出研究结论。研究历程全面,工作量比较大,达到了研究生的研究历程和水平,同意参加论文答辩。,0,0,1,1,0,0,0,0,0,0,0,0,0,0 +2191,作者针对杯芳烃用作毛细管气相色谱固定相存在的问题,通过将杯芳烃衍生化改造,使其用于气相色谱固定相,并研究其色谱分离性能与保留行为。研究了杯芳烃衍生物的结构表征和一系列参数(柱效、极性、热稳定性、重复性及载样量等)对其用于色谱柱的影响,同时研究了不同分析物在上述色谱柱上的分离性能和保留机理。同时指出C6A-NO2、C6A-NH2 和C8A-C18 毛细管气相色谱柱存在的不足。证实了杯芳烃衍生物在GC 中的应用潜力又丰富了GC固定相的选择空间。总的来说,作者的研究充实,论文写作规范,逻辑清晰,工作量饱满,有一定的创新性。,0,0,0,1,0,0,1,0,1,0,0,1,0,0 +900,对传统服饰文化进行研究具有一定的社会人文价值,该学位论文对旗袍和国潮的概述、相关文化起源和美学形式分析基本准确,但缺乏明确的研究创新点;在设计实践部分应对服装的设计与制作过程进行充分的表述,对服装的色彩、造型、结构及工艺特征进行详尽的分析,每一个部分应通过大量图例进行展示和佐证,该学位论文在此部分较为薄弱,特别是“结构展示”部分,应该放置详细的服装结构图(平面版型图)。建议针对设计实践部分进一步完善论文。,0,1,0,0,0,0,0,0,-1,0,0,-1,0,0 +981,文章以艺术歌曲《被禁止的音乐》做为研究对象,分别对其音乐特点和演唱做一定程度的说明。从音乐本体上,作者从作品的旋律写作特点和歌词的艺术性特点(在歌词到底属于不属于音乐本体这一点上我保留意见)着手进行梳理,在作品的演唱要点分析上,作者从“作品情感分析”、“气息要点分析”、“歌曲咬字分析”这三个块面进行说明。从篇幅上来看,这三个块面的篇幅是递减的,尤其是“歌曲咬字分析”牵涉到歌曲咬字的论点就只有一段话,正文中也看不出作者是哪个声部演唱这首作品。文章从基本框架上看起来是简单的,也从音乐本体的角度和视野对作品进行了简单的分析,文章中有一些错字希望作者能够修正。 ,0,0,0,0,0,0,-1,0,0,0,0,0,-1,0 +2389,本文针对响应面法存在的精度和效率问题,进行了研究并提出了基于交叉降阶取样的改进响应面方法、基于SQ算法和新控制点技术的改进响应面方法,考虑双加权思想和向量投影技术的改进响应面方法等。取得一定成果,但还有一些待改进之处。1、从逻辑上,第1.4节建议合并到1.3.4节。2、P9排版图与名称不要分开,另外文中数字建议统一“TimesNewRoman”字体,例如表2.5中为宋体,而表2.6中则为“TimesNewRoman”字体。3、关于响应面法已有多种修正方法,这些方法有何不足,需要总结,什么原因导致的,这样才能有针对性的修正。4、1.5.3节关于技术路线太过简略,需要介绍研究的逻辑关系,研究大致过程,图也过于简单。5、2.5节总结说明对不优秀的样本点进行剔除以实现降阶,然而在2.3.3节的计算步骤中没有体现。6、本文提出的修正方法与其他学者提出的修正方法缺少对比分析。7、结论缺少凝练总结,每种方法缺少规律性总结或者启示性方法设置原则,以便为今后提供参考。,0,0,0,0,0,0,-1,0,-1,-1,-1,0,0,0 +2595,"论文""社会工作服务的专业性研究""选题具有现实意义和专业价值,研究问题明确,研究方法较适宜,在借鉴相关研究文献精华的基础上尝试寻求本研究的创意具有专业探索性。论文以柳北低保社工服务项目为例,依据一定的理论基础,对社工服务中的专业性呈现、服务过程以及存在的问题进行诠释,具有一定的理论解释力。研究的发现与对策建议,对社会工作服务弱势群体领域的服务拓展及专业服务模式具有参考价值,一定程度推动社会工作专业领域实务服务模式的反思,具有专业价值。论文结构合理,行文顺畅,体现研究逻辑和一定的科研工作量与专业能力,达到硕士论文水平。但论文也存在如下不足:1、研究所依据的理论基础与研究过程及对策的契合度诠释不充分;2、研究实务案例的列举佐证对研究观点的说服力不强(案主与社工对话的内容所说明的问题和观点不清晰)3、研究对策与前述问题发现的回应欠缺紧密性。建议结合上述意见完善修改论文!",0,1,0,0,1,1,1,1,-1,0,0,1,0,0 +2636,论文分别采用室内试验、离散-连续耦合模拟等手段研究了GESC复合地基路堤的静动力特性。分析了各设计因素对承载特性的影响,并基于神经网络算法建立了GESC复合地基桩土应力比预测模型。论文研究采用了多种研究手段,作者理论基础扎实,具备较好的科研能力水平,论文语言表达及规范性略有不足,总体上达到硕士学位论文水平。论文存在的问题及不足之处:(1)建议调整第三章和第四章的顺序。(2)建议梳理单桩静载模拟、及现场试验单桩模拟的二者之间的关系,为何不针对统一的试验(如室内模型试验或现场试验)开展分析?(3)模型试验设计过程中未考虑缩尺带来的影响,未遵循相似原则进行模型试验设计,这样的模型试验设计对后续结果分析有何影响?(4)数值模型验证过程中仅从P-s曲线接近验证模型的准确性,建议增加土压力、桩体变形等试验结果与模拟结果的对比分析(尤其是路堤模拟)。(5)第五章现场试验的荷载持续加载到650kPa,为何数值模拟仅验证了400kPa范围内的P-s曲线结果。论文规范性问题:(1)第5页,(3)静载下加筋包裹碎石桩复合地基数值模拟研究,但在接下来的描述中又出现了动载、动应力。(2)图2-3中,标注出土工布和加载范围,统一软土层和红黏土的说法。(3)图3-20图名有错误,0,0,0,0,1,1,-1,-1,-1,0,0,0,0,0 +1429,该同学硕士学位论文提出了一种基于变分模态分解和优化回声状态网络相结合的风速时间序列预测方法。论文结构完整、层次清晰、内容丰富,选题符合所在学科专业领域,具有一定的理论意义和实际应用价值。 该论文采用变分模态分解对风速时间序列进行预处理,降低时间序列内部信号耦合性;建立回声状态网络预测模型,并通过鲸鱼群算法优化模型参数,生成风速序列预测值;通过与其他传统的预测模型进行比较分析,验证了本文所提出的组合模型预测风速精度更准确。 该同学的论文已达到了硕士学位论文的要求。同意该生进行硕士学位论文答辩。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2198,"(1)外文翻译,有待提高,比如“Firstofall,ontherelationshipbetweenthemechanicalarmendmeterandartifactsforanalysisandcalculation,themagneticforcesize,heneedstochoosethematerials,choosethestrongestndfebmagneticmaterial,”中“ndfeb”是啥意思?时态语态、主语用词都要完善。(2)图1、图2的数据来源要注明出处,或者有印文出处。(3)文献的叙述不够严谨,“意大利机器人公司Comau的第一台机器人诞生于20世纪80年代,公司将其命名为polar液压[28]。凭借技术层面的深度耕耘,科莫为世界各国提供生产线设备,受到广泛赞誉。”,百度百科中查到是1978年发明的机器人。还有很多文献的产品介绍中,如“行程数”等,是否恰当?,都有待考证。(4)“姜俊杰[30]科学分类自动冲压生产线,最终以冲压机器人为例,讨论了冲压端拾器的组成和特点,并提出端拾器的存储和管理方法。对端拾器的相关设计程序进行了介绍,并对整个设计的规则与方式还有流程进行了描述。”,语言不通顺,前面的“科学分类自动冲压生产线”与后面的内容有逻辑关系吗?真个段落断句也不恰当。(5)“三次次NURB曲线”、“牛顿迭代发”、公式(2-16)符号“S”大写,后面解释却用小写。(6)“房炜[32]对多种传统多项式插值方法进行仿真求解,得到了三五三多项式插值的效果要好于单一的三次或五次多项式插值。”本文的轨迹规划也采用3-5-3混合插值方法,两者是否有本质异同?(7)第一章背景介绍中“电永磁式的端拾器”的文献几乎看不到,有必要进行深入调研当前现状和问题。(8)该多项式有6个未知系数a0-a6,这不是7个未知量吗?(9)“要实现可逆磁性材料通电产生磁场与永磁体抵消,两种材料在吸盘中的方式可以分为两种[57],一种为上下放置,如图所示,图中1、2分别为永磁体、可逆磁性材料,3、4分别为线圈与磁轭,另一种为水平放置,如图所示,原理均为改变线圈中电流的大小与方向来控制可逆材料产生的磁场实现工件的夹紧与卸载。由于水平放置需要空间较大,本文选择上下放置。”,这到底是说的那个图?可逆材料指的是啥部件?不好好看看论文改改论文,真无语啦。(10)图5-2图5-3参考文献是否给出啦?别人的东西一定要明确给出文献信息。这里的图5-3明明是表,作者还当成是图。(11)冲压用的抓取机器人是否和GP180的机器人结构完全相同,如果不相同,如何进行修改完善?本项目中的机器人的具体情况如何?(12)冲床机器人的各轴运动具体问题,是如何转化为利用麻雀算法优化求解的问题的?优化目标是什么?约束条件是什么?优化中的中间变量,加入者位置、发现者位置的变化规律又如何?最后,论文中给出的那些图要交代一下产生这样的结果有什么效果或影响。",0,0,-1,0,0,0,-1,-1,-1,0,0,0,0,0 +2147,针对目前脉冲功率电源存在储能密度低,结构复杂,且放电强度、频次和运行可靠性低等问题,论文提出一种被动补偿式外转子永磁脉冲发电机(ORPMPCPA)并与驱动电机进行一体化设计,以增加此类脉冲功率电源的储能密度和放电电流强度,简化脉冲功率电源系统结构,提高其运行可靠性。重点对 ORPMPCPA 整体结构和工作原理、减小电枢绕组电感的方法、放电数学模型和放电性能、放电过程中电磁力分布及对应产生的应力和应变分布等问题进行了研究。建立了ORPMPCPA对负载放电的数学模型,并采用三维场路耦合法对强电流放电过程中ORPMPCPA的电磁力分布情况进行了分析,获得了电枢绕组和屏蔽筒的受力特征和分布规律,研制了 ORPMPCPA及其驱动电机一体化样机并进行了试验,部分验证了所提出了理论正确性。 本文选题目的明确,作者对该研究领域的国内外研究现状及发展态势进行了较详细的梳理,文献综述较为全面。论文结构安排合理,写作规范,整体思路清晰,具有一定的研究价值和创新性,工作量较为饱满,相关成果具有一定工程应用价值。,0,1,1,1,0,0,1,0,1,0,0,1,0,0 +1211,本文针对可以应用于电动汽车的动态无线电能传输系统进行研究,取得如下成果:(1)当系统由于动态特性导致频率发生变化导致系统失谐以及效率下降时,引入锁相环技术,并利用Matlab/Simulink软件设计仿真电路,验证了控制策略的效率提升效果;(2)无线电能传输系统应用于户外环境时候,会因为外界的因素使系统具有更多的不确定性以及更高的鲁棒性要求,采用线性自抗扰控制器技术,对其整体的外界影响归结于一种线性的变化,利用其自抗扰的性质使系统获得更高的传输效率。利用Matlab/Simulink软件设计仿真电路,验证了控制策略的效率提升效果。论文达到硕士论文水平,建议组织其论文答辩。,0,0,0,0,0,0,0,0,0,0,1,0,0,0 +1144,本文基于出租车运营数据对出租车合乘调度方法进行了研究,论文的选题具有一定的现实意义和应用价值。 本文基于北京市出租车GPS运营相关数据,建立出租车合乘调度模型,使用合乘信息匹配和基于蚁群算法的热点区域和热点时段的优化算法对出租车合乘调度问题进行了研究,获得了一定的结论,通过本文的实验结果可以看出,本文所做的工作具有一定的效果。 通过本文可以看出,作者具有一定独立从事科学研究的能力。,0,1,0,0,0,1,0,0,0,0,0,0,0,0 +1078,"本论文利用随机配置网络,建立了核轴封主泵油润滑径向滑动轴承油膜厚度软测量模型,设计了核轴封主泵油润滑径向滑动轴承油膜厚度测量的实验台控制系统,并对实验结果进行了分析。 论文选题具有一定的理论意义和实用价值,文献综述比较全面,内容充实,语言表达流畅,层次分明,具有逻辑性。研究方案设计合理,设计方法具有一定创新性,实验仿真数据准确细致,图标比较规范,论文达到了硕士学位论文要求,同意作者修改后直接参加硕士学位论文答辩。",0,1,1,0,0,0,1,1,1,0,0,0,0,0 +133,本文选题具有一定的研究意义和实用价值。论文对课题研究背景、理论基础做了较好的阐述。 本文的语句基本通顺,尽管有少量的错别字、标点缺失等问题,但对阅读影响不太大。 但是文中出现了大量的图表和公式的标号错误问题,这严重影响了整个论文的质量。理论阐述和公式推导部分因此显得极不严谨,鉴于此,建议作者对全文进行一个全面的修改。,0,1,1,0,0,0,-1,1,0,0,0,0,0,0 +2257,本课题为了保证线控转向系统能精准稳定的执行转向,展开了基于多传感器融合的线控转向系统研究。选题具有一定的理论意义和实用价值;论文反映该生对本学科及相关学科领域国内外学术动态有一定的了解;论文提出的技术方法具有一定创新性,具有现实意义;体现学生理论知识扎实,具有分析问题、解决问题的能力,研究方法具有科学性;论文语言表达准确,逻辑性强,书写格式规范,还存在如下问题:1、摘要第一句“...系统之一,它取消除转向盘和转向执行机构之间的机械连接...”是否通顺?请确认。2、4.1传感器数据采集的电路设计中,倾角采集电路有程序流程图,而转角测试和车速测量部分为何没有?后边虽然有,但是论文结构有些混乱;转件测试和车速测量中有硬件连接原理图,为何倾角采集电路中不能一致呢?请整理论文组织结构。3、P41图4-4、P46图4-10、P52图4-17程序流程图是否正确?请确认。,0,1,0,0,1,1,1,1,1,1,0,1,0,0 +608,论文针对电力变压器绕组的漏磁及短路电动力展开研究,选题具有较好的研究价值。论文首先基于所建立的变压器三维模型,分析了变压器的短路电流波形以及轴向和辐向漏磁密与体积力密度,得到绕组漏磁与短路力的分布特点;利用Workbench软件对绕组进行了电磁场与结构力场的耦合分析,得到了加载和卸载短路力的绕组形变量及其变化趋势、等效应力和等效塑性应变的分布;通过得到的绕组形变模型,对绕组的累积效应进行了仿真分析。 论文写作质量好,工作量大,反映出作者具有良好的电气工程领域专业知识水平,具备独立从事实际研究工作的能力。论文水平达到硕士学位论文要求,同意答辩。,0,1,0,1,1,1,0,0,0,0,0,1,0,0 +710,随着电子商务的崛起,车辆调度问题受到越来越多的关注。该论文选题“考虑变化调整时间及带有时间窗的车辆调度问题研究”,选题具有重要理论意义与实际应用价值。 论文在对国内外相关问题的研究现状进行概述的基础上,进行了以下研究工作: 1)结合实际车辆服务的环境,考虑车辆在配送中遇到例行检修、燃料补给、人员休整等情况产生的变化调整时间,给出了调整时间与车辆行驶距离的函数关系,同时给出了客户满意度与时间窗的隶属度函数,以最小化车辆行驶距离,最大化客户满意度,最小化车辆使用数量为优化目标,建立了问题的数学规划模型。 2)设计了问题求解的分散搜索算法,与遗传算法对比分析的实验结果表明,分散搜索算法优化效果较好。 论文结构合理,条理清晰,叙述翔实。 综上,该同学已经掌握了本门学科坚实宽广的基础理论和系统深入的专门知识,具有独立从事科学研究工作的能力,论文达到硕士学位论文水平。,0,0,0,0,1,1,1,1,0,0,0,0,0,0 +2596,论文“扁形与圆形焊接锚垫板的传力机理和群锚效应”针对预应力结构端部焊接锚垫板的传力机理和群锚效应进行研究,选题具有新颖性,研究具有一定理论意义和工程指导价值。论文设计制作了2个配置间接钢筋的扁形焊接锚垫板试件以及11个配置间接钢筋的圆形焊接锚垫板试件,对其中一个12孔圆形焊接锚垫板试件和一个5孔扁形焊接锚垫板进行锚固区传力性能试验,得到锚固区极限承载力、裂缝宽度、应变曲线。同时采用有限元软件ANASYS对焊接锚垫板及锚下混凝土锚固区进行了有限元数值模拟和承载力计算公式的优化。此外,进一步对焊接锚垫板群锚效应进行了有限元分析,得出了最佳锚固间距,并给出焊接锚垫板合理的群锚布置方法。论文研究目标明确,研究思路清晰,研究方法基本合理,工作量饱满,研究结论具有参考价值。论文写作规范、流畅且具有一定逻辑性。表明研究生具有较扎实的专业基础理论。个人认为论文达到硕士学位论文要求,同意答辩。审阅全文,提出以下建议供参考:1、试验中焊接锚垫板上施加荷载模拟预应力筋锚固压力应考虑如何实现等同。2、商业有限元软件ANASYS无法模拟混凝土的损伤进程,敬请考虑是否后续研究改换拥有混凝土损伤模型的ABAQUS。3、预应力筋锚固区段一般设置横向钢筋网以增强锚固区混凝土约束,消除局压不利影响,请课题组斟酌。4、试件设计是否考虑世纪预应力结构锚固区构造的特点,尤其尺寸布局。,0,1,0,1,1,0,1,0,1,1,0,1,0,0 +2334,本文选题符合硕士学位论文选题要求、思路较为清晰、语言较为流畅。论文具有一定的理论价值和现实价值。作者能够运用所学方法、专业知识研究现实内容,并形成了自己的观点。但是,全文整体有些空泛,希望能进一步充实本文内容,并反复通读全文。1、第三章中的“二”这一部分很突兀的出现美团案例,与第三章大标题有些不符。整体上讲美团案例的引用过于随意。2、对于理论、方法、模型的介绍过多,对于其应用于美团的案例分析过于简单。3、缺少建议部分。,0,1,0,0,0,0,0,1,1,-1,0,1,0,0 +1255,地下结构工程的防水问题近年来逐步凸显,论文对自防水再生混凝土的抗渗性能进行研究,选题具有较好的工程实用价值。 论文通过配比试验,测定了再生混凝土的吸水率、含水率、表观密度和堆积密度等参数,得到了自防水再生混凝土抗压、抗拉强度和塌落度废弃混凝土与YYK防水剂掺量的变化规律。并用渗水高度法进行了各种掺量下自防水再生混凝土抗渗试验,得到了渗透系数变化规律,同时测定了冻融循环条件下自防水再生混凝土的抗渗性,采用扫描电镜和能谱观测其微观结构特征,探讨了其抗渗机理。还结合实际工程项目,给出了自防水再生混凝土中各成分的最优掺量。 论文研究论文思路清晰,逻辑性强,书写规范,撰写表达清楚,论文工作表明,作者已掌握本学科领域坚实的理论基础和系统的专业知识,具有从事科学研究工作或独立担负专门技术工作的能力。 论文达到了硕士学位论文水平,同意进行答辩准备工作。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2876,论文在对房地产价格评估方法的基本理论进行梳理的基础上,提出了房地产价格评估的改进市场法的评估方法,并以该方法对“房住不炒”政策发布前后徐汇公园道项目的房地产价格进行了评估,还比较了政策前后评估准确性的差异。这对不同形势下改进房地产价格评估方法具有一定的启发意义,反应作者具有较强的科研能力。论文选题合理,结构较为清晰,观点较为明确,论据较为翔实,论证较为充分,达到了硕士学位论文水平。不足之处在于:第三章只有几页不妥,结构稍嫌不够清晰。,0,1,0,1,0,1,0,1,1,0,0,0,0,0 +641,论文针对坦克火控系统中瞄准镜控制盒内信号与故障的诸多特点,进行了瞄准镜控制盒故障诊断专家系统设计,为实现瞄准镜控制盒中并发故障的甄别具有主要意义。论文选题正确,具有一定的实用价值。主要研究内容如下: 1. 在分析研究瞄准镜控制盒控制机理及其故障原因基础上,通过建立基于改进动态因果图的瞄准镜控制盒知识表达模型,实现了对瞄准镜控制盒的知识获取; 2. 研究了瞄准镜控制盒模糊故障推理模型,包括基于证据与规则的表示模型,基于BM模式匹配与循环匹配策略的匹配模型,以及基于模糊CRI与改进全蕴含三I的计算模型; 3. 采用SQL Server、Visual Studio完成了瞄准镜控制盒故障诊断专家系统设计,通过对垂直力矩电机控制过程进行实例验证,验证了专家系统的故障诊断功能; 4. 通过与故障树分析法对单一及多故障点的对比分析,完成了对专家系统的诊断效率及诊断准确度评估分析。 作者对该领域研究现状进行了较全面的综述,引用文献具有代表性,提出的研究目标明确;论文层次较分明,实验过程和数据分析等均较清晰,规范。该论文反映出作者在本学科具有一定的理论基础、系统的专业知识和科研能力,达到硕士学位论文要求,建议提交学位论文答辩。,0,1,1,0,1,1,1,0,1,0,0,0,0,0 +852, 哈尔滨市轮滑俱乐部培训现状与发展对策研究选题方向符合研究生标准,论文框架基本合理;整篇论文格式符合规范;论文内容与题目基本相符,结构完整,中文摘要撰写符合要求;论文中修改国内外研究现状,也可以分开写国内研究现状和国外研究现状;研究结果中增加分析图,还需要增加表的内容显示;修改研究对象,研究对象的人数和后面分析人数相同;结果分析中内容基本合理,在研究结果与分析中的哈尔滨市轮滑俱乐部现状调查有些内容需要有依据。,1,1,-1,0,0,0,1,1,1,0,-1,0,0,0 +1225,本文重点研究了基于MPPM的调制解调技术,提出了改进的MPPM调制,以及改进的MPPM调制解调技术和LDPC编译码的联合机制,提高了通信质量。最后基于FPGA设计实现了改进的MPPM和LDPC码的调制解调。 论文对国内外研究现状和存在的问题表述清楚,书写规范,结构合理,图表较清楚。 综上所述,论文已达到学术型硕士学位论文的要求,同意进行硕士论文答辩。,0,0,0,0,0,0,1,0,1,0,0,0,0,0 +445,论文就用田口方法来分析、解决当前汽车座椅发泡车间生产过程中存在的主要问题,采用DOE设计实验的方法,工作量太少,难度太低,建议应该多增加写研究内容以充实论文,例如除了用DOE,是否还有其他更好的方法,并进行方法间的比较等。 1.摘要介绍性内容过多,没有实质性研究内容、研究方法、研究结果的描述,而且摘要字数太少 2.工作量太少,前两章都是介绍性内容,第三章理论部分也不是自己的工作 3.文献列表格式混乱,特别是英文文献 4.目录中第三章标题不全,0,0,0,-1,0,0,-1,-1,0,0,0,0,0,0 +2948,随着经济的高速发展,企业的并购业务需求越来越大,“PE+上市公司”型并购基金的研究具有一定的理论与实践意义。论文分析了爱尔眼科并购对企业价值的影响,同时延伸分析了医疗行业的比较分析、其他行业的比较分析,拓展了研究对象的研究范围,同时,也采取了事件分析法、因子分析法等多种方法进行分析。整篇论文论证较为充分,体现了良好的理论基础与应用分析能力,达到硕士学位论文水平。但论文还存在一些值得商榷的地方,包括:1、个别地方语句不通顺或重复,比如P2“利于收购方企业较为全面地了解该类并购基金在收购方企业的并购经营过程中,发挥着的重要作用”,P9“通过对相关文献的总结,现有的研究结果表明,”,P15“并在此基础上推动建立基于非营利组织的社会医疗服务制度,并在此基础上建立商业性医疗机构。”,P42“(5)剔除了并购标的为其他领域的上市公司及并购标的与非民营医院的上市公司”;个别图表在正文中缺少引用语句,如图4-1等;个别章节格式存在一些问题,比如第三章的标题序号,直接就是(一);2、P9小结中,对于动因、运作方式、风险的述评,直接通过类似“动机:”这样的方式表述不是很连贯;另外,这部分的最后一段是论文主要内容的介绍,建议不放在文献述评里。3、个别地方表述需要再斟酌,比如P15的个案选取基础中“对其进行了实证研究”,实证研究一般是指的大样本回归分析。4、论文第五章选择医疗行业公司数据时,选取了2014-2018年的信息,选择其他行业公司数据时,选取了2014-2017年的信息,对于数据选取期间的选择有何标准?5、论文在进行对比分析时,选取了医疗行业的三家公司,分析结果与预期相符,有两个问题建议进一步讨论一下:一是存不存在因为对比公司选择的原因导致的结果正好与预期相符;二是如果“”的模式在并购结果上比传统的模式好,为什么其他公司没有选择,应该还是有没有选择的原因,这可能是“PE+上市公司”模式的不足或是它的应用需要具备一定的条件,可以在论文的结论与建议部分补偿论述采取“PE+上市公司”需要具备的条件或注意的问题。,0,1,0,0,1,1,0,-1,0,0,0,0,0,0 +1067,本课题针对复杂手部动作的分类问题,从预处理、特征提取和模式识别三方面进行研究,提出一种基于前臂表面肌电信号(Surface electromyography signal,sEMG)混合特征分离的识别方法,能够有效提高模式识别的准确率,对手部康复医疗有一定的理论意义和实用价值。 作者通过广泛的调研分析,总结出最常见的六种手部复杂动作,设计了表面肌电信号采样位置。积累了前臂表面肌电信号实验数据,并分别采用小波变换中的全局阈值和分层阈值对原始sEMG进行降噪,从时域、频域和时频域三个方面对降噪后的sEMG进行七种特征的提取,提出一种将手部复杂动作分离为手指动作和腕部动作组合的分类策略,解决了复杂动作的特征分布混淆的问题。搭建手指动作分类器和腕部动作分类器。分析对比了K最近邻分类器、支持向量机和卷积神经网络三种分类方法的识别结果,提出一种识别率更高的“组合”分类器。通过搭建智能假手控制实验平台进行实验验证。取得了较好实验结果。 论文选题紧扣实际应用,对该研究领域文献资料的掌握比较全面,较好地分析了国内外研究动态。提出的研究方案合理,有一定的创新,工作量饱满,体现了作者较好的科研潜质和专业基础。论文撰写格式规范,逻辑结构清晰,得出的结论有一定的价值。 同意答辩!,0,1,1,1,0,0,1,0,1,0,0,1,0,0 +2343,本文研究提出豆浆前处理改善揭膜豆腐皮品质和非揭膜压制豆腐皮的工艺制备方法,研究探究了涡流空化和微射流对豆浆流变学性质和成膜性能的影响,以及探究了压制工艺对豆腐皮品质的影响。论文研究取得了一定的结果,但解析和讨论不够深入。仅仅从红外光谱的数据讨论蛋白质二级结构问题,结论有点牵强,如果可能可以增加圆二色等光谱表征数据。论文引言写的太少,没有分析存在问题和指出拟解决什么问题,本文的创新性一般,虽然文章有一定的实用价值,但是数据不够详实。建议修改后答辩。,0,0,0,-1,0,0,0,0,0,0,0,-1,-1,0 +1215,本文针对人工检测冰勺表面缺陷的不足,对 94 型冰勺缺陷在线检测方法进行了相关的研究。完成的主要工作包括1对现有的冰勺硬件系统进行可行性分析。②对毛刺、劈裂、污染、薄料、缺肉等缺陷进行分类与检测。论文选题具有一定的实用价值,文献和实际调查比较充分,对本论文所要解决问题的目的意义及现状论述较清晰,工作量一般,采用理论方法适当,具有一定的综合运用基础理论、专业知识和解决实际问题的能力,论文写作概念清晰,材料真实,结论合理,格式规范,文字表达能力一般。,0,1,1,0,1,1,1,0,0,1,1,0,0,1 +2805,论文以“产业化背景下三江侗族刺绣品牌视觉设计研究为题”与该生所学专业紧密结合,有一定的深度与创新性。文章在关注传统优秀文化的同时,尝试对其进行现代运用,挖掘侗族刺绣文化内涵,提取侗族刺绣典型图形图像元素和符号,创建品牌视觉识别系统,探索具有地域文化特征的文化产业品牌视觉设计的模式与方法,具有现实价值。全文结构清晰,层次分明,语言通顺,研究方法运用得当。论述也具有一定的深度、但在设计实践创新性稍显不足。作为一篇学位论文,表明该生已具备独立从事视觉设计与科学研究的能力。同意该生参加硕士论文答辩,并推荐优秀论文。,0,1,0,0,0,1,0,1,1,1,0,1,1,0 +1845,论文以姿态人脸图像的正面化为研究内容展开研究,采用生成对抗网络由姿态人脸图像生成正面人脸图像,研究工作具有一定的实用价值。论文完成的主要工作:(1)对网络的损失函数进行改进,增加了身份损失;(2)采用三维重建技术生成姿态人脸图像以增加数据量,改善样本均衡性;(3)形成了简单的人脸正面化软件。论文总体上反映出作者具有一定的研究能力和解决工程问题的能力。论文工作量较饱满,结构合理,格式较规范。,0,1,0,1,0,1,1,0,1,0,0,0,0,0 +1852,论文在对电子产品封装点胶及机器视觉技术国内外研究现状综述的基础上,基于微小液滴表面张力的微量点胶装置体积精度、位置精度和速度进行了视觉处理和路径规划技术研究。论文选题具有很好的工业应用背景,有一定的理论研究意义和实际应用价值。 通过研究,作者主要完成了以下几方面的工作: 1.进行了机器视觉识别系统硬件设计和选取,以提高微量点胶装置的位置精度; 2.为提高微量点胶装置的效率和速度,选取运行速度快的模拟退火算法进行目标路径规划; 3.搭建实验平台进行点胶实验测试,验证了点胶质量满足工业化生产要求。 但综观全篇论文,论文选题不错,但研究内容偏少,更偏向于工程应用,论文没有达到研究生毕业论文要求。,0,1,0,0,0,0,0,0,0,0,0,-1,-1,0 +2918,论文主要对制备适合用于固态锂电池实际应用的固体电解质进行了分析与研究,提出了将无机电解质Li7La3Zr2O12(LLZO)与聚合物电解质PEO结合制备成一种复合固体电解质的想法,系统研究了制备具有优异性能的复合固体电解质的工艺流程。论文的主要工作有:(1)基于第一性原理计算的密度泛函理论(DFT)对LLZO与Sb掺杂LLZO(LLZO-Sb)两种电解质的晶体结构进行理论结构分析,研究LLZO、LLZO-Sb两种电解质的态密度、原子布居以及锂离子在两种电解质中的迁移情况。(2)利用溶液浇铸法将通过实验合成的LLZO、LLZSbO电解质分别与PEO结合制备成复合固体电解质,分别对其进行离子电导率、电化学性能的研究。(3)通过在优选的LLZSbO-PEO体系中加入40%的聚合物PVDF制备的复合电解质的电化学性能得到进一步的提高,制备的LPPL-40复合电解质在30℃时具有1.62×10-4S/cm的离子电导率,电化学窗口高达5.4V,组装的对称锂电池测试的锂离子迁移数为0.44,临界电流密度高达0.9mA/cm2。论文结构严谨,层次分明,语句流畅,文字通顺,逻辑性强,图文表达清晰。综上所述,作者已掌握了该领域中广泛的理论基础与专业知识,具备了一定的科研能力,论文已达到硕士水平,同意进行硕士论文答辩。问题:1.论文第五章中,分别对三种电解质的倍率、循环特性,低温性能,高压性能进行了试验,但是最后总结时只是将实验数据进行罗列,没有就三种电解质的同一参数进行对比,也没有针对本篇论文主题(适合用于固态锂电池实际应用的固体电解质)给出最后的结论。2.文中有复合固体电解质制备流程示意图,体现了制备的流程。但是在进行电化学性能研究时,只有获得的表格数据,曲线图。例如:在研究其电化学性质的影响如离子电导率、电化学窗口以及临界电流密度等性质时,没有实物图来体现研究检测的过程。仅靠文字叙述,阐述的不够明确,最好有实物图解,像“复合固体电解质制备流程示意图”一样。3.文中通过研究无机电解质填料浓度对于复合电解质体系性能的影响规律,选出合适的填料浓度进行制备复合电解,但没分析如何选出每一种填料的浓度及浓度比?,0,0,0,0,1,1,1,1,1,0,0,0,0,0 +1288,该论文采用涂覆法制备所得聚偏氟乙烯/活性炭复合电极作为电容去离子技术中阳极进行氯化钠溶液脱盐,主要研究了CDI循环次数和溶液pH对阳极的影响。通过大量文献查阅进行了分析,论文研究角度具有较高的实际应用价值,论文研究成果对电极材料的脱盐性能评价具有一定参考价值。反映了论文作者具备独立进行科学研究的能力。论文撰写基本符合规范,语言通顺但不够简洁清晰,文字错误较多,实验数据真实可靠,论文工作量一般,分析讨论欠严谨,有的分析结论缺乏支撑数据。,0,1,0,1,0,1,1,1,0,0,0,1,0,0 +2367,本文以三只松鼠作为案例研究对象,选题来源于经济社会的资产评估实践,符合专业性要求;论文通过案例研究,利用Interbrand评估模型对北三只松鼠进行了价值评估,并就研究对象给出了相应的研究结论和建议。论文体现了研究的应用性和专业性,研究结论有一定的参考价值和现实意义。论文文献综述的整理详备,能够综合运用相关的资产评估理论知识,选择了合适的案例研究方法。研究资料翔实,资料运用合理、得当,论证充分,符合专业特点,研究工作深入,工作量饱满。论文的观点明确,逻辑清晰,结构合理,层次分明,文笔流畅,形式规范。论文不足之处是:1.论文题目中“企业自直播影响”,但是在论文研究中仅仅在四、(二)中提了几句话,可以说文不对题;至少在评估过程中考虑“企业自直播影响”因素对企业价值的影响。但却没有。2.根据论文,建议题目改为:“基于Interbrand改进模型的三只松鼠企业价值评估”。3.对案例企业的评估价值的分析也是重要的内容,不能仅仅局限于评估过程。建议对第四章加五、,“提升三只松鼠企业价值的管理建议”。,-1,0,1,0,0,0,1,1,1,0,1,0,0,0 +909,该论文系第二次送审。第一次评审的意见是:“该硕士学位论文试图以中国改革开放初期的1988年为历史背景,对当年油画人体艺术大展的画家作品进行专门的讨论,探讨改革开放背景下人们思想的进步以及油画人体艺术大展的历史影响,对所展出的人体艺术作品的风格进行分类。这一硕士学位论文的选题有些许学术价值和现实意义,但文章存在着很多问题和不足,特别是现有的论文题目偏大,泛泛而谈,难以做到小题精做;很多语言表达不通顺;格式亦不够规范等,需要下大气力尽可能予以修正、完善之后重新送审。”目前看到的修订稿尚没有实质性的改观,其中包括此前明确列出来需要修改的一个不通顺的句子,一个字都没有改动。因此,该论文不能参与答辩。 ,-1,1,0,0,0,0,-1,-1,0,0,0,0,0,0 +709,随着电力电子技术的发展,柔性直流输电系统在远距离大容量输电工程领域中得到应用。基于模块化多电平换流器的高压直流输电技术更是凭借着输电容量大、谐波含量少、开关损耗低、应用领域范 围广等优点,在电网中得到了广泛应用。在 MMC-HVDC 系统中,换流站内部和不对称 故障的保护策略直接关乎输电系统的可靠性和安全性,因此针对 MMC-HVDC 故障分析和保护策略进行研究,具有一定的现实意义,研究成果有一定应用价值。论文结果表明,作者掌握了该专业的理论基础和专业知识,具有一定的从事科研工作的能力。论文写作符合规范,语句基本通顺,较认真。论文基本达到硕士论文水平,同意参加进行答辩。,0,1,0,0,1,1,1,1,0,0,1,0,0,0 +2585,聚类能有效表示数据之间的关系,因此,聚类问题是机器学习中重要的基础问题,具有非常重要的研究意义和实际应用价值,该论文主要针对各种不同复杂场景中图像中轮廓识别问题展开研究,选题具有一定的理论和实际意义。数据原始空间中含有各种冗余、复杂的结构,传统浅层算法不能获取原始数据间的深层语义概念。论文针对传统的浅层聚类算法不能有效提取复杂数据的语义问题,在深度学习领域下的针对高维度数据的聚类算法展开研究。结合深度模型的特性,提出了了基于双自动编码的深度嵌入聚类算法和改进的深度谱聚类算法,通过理论证明与实验证明了所提方法的有效性,取得了较好的效果,验证了提出方法的有效性。论文反映了作者阅读了大量相关文献,对本专业基础理论和课题方面的知识掌握较为深入、牢固,能利用所学知识解决课题中实际问题,具有一定的科研能力。论文条理比较清晰,写作规范,逻辑结构清晰,实验数据较完善。论文已达到硕士论文水平,同意该同学硕士研究生论文答辩和硕士学位论文申请问题与建议1.第3章部分中,对论文结果做了比较详细的描述,实验结果分析部分能否进一步优化?算法的消融实验应有所体现,分析模型的哪种改进对算法性能的影响有多大?2.第4章实验部分和分析部分应进一步消融,泛化性和鲁棒性等方面加强3.文中有些图和表的位置可稍作调整增强文章的可读性,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +2254,本翻译实践语料选取《汽车机电系统》中传动系统部分作为源文本完成汉译翻译实践报告,该题材属于汽车科技文本翻译,具有一定的实用指导意义。译者运用维索尔伦顺应论作为翻译理论基础,分别从非语言语境顺应维度和语言语境的词汇、句法、语篇层面的顺应维度分析。附录部分中文译文简洁、准确、严谨;图片和术语等信息清晰明了;分析报告结构完整,逻辑清晰。该论文的翻译工作量和实践报告均基本达到翻译硕士学位要求。建议进一步修改优化:1、分析报告第3部分标题建议改为“TheoreticalFrameworkandApplication”,因为这部分并没有进行LiteratureReview(文献综述)。2、规范全文夹注格式,如P4.K.Reiss(2000)关于文本类型、P14.HeChuanchun(2010)等分类观点应标明文献出处等类似问题。,0,1,0,1,0,0,0,0,1,0,0,0,0,0 +2401,本研究基于河南720洪灾的背景,开展受灾老人心理问题的研究,并在观察、访谈等的基础上,选取有需要的案主开展个案工作干预,以达到协助受灾老人实现心理恢复的目标,选题具有重要的现实意义,符合MSW的培养目标。文献较为丰富,论据较为充分,论证基本合理,总体来说,符合MSW论文的相关要求。当然,论文还有不完善之处,建议在以下内容进行修改。1.论文的章节结构建议做相应的调整。如文献综述部分,建议补充关于受灾群众心理问题的研究、受灾老人心理问题的研究、受灾老人心理问题的干预研究等内容;第三章研究设计,建议先写基本概念,再写研究理论基础,并且只有社会支持理论一个理论,没有第二个理论,则不需要标序号(一)了,建议去掉文献研究法(做文献综述不等于是文献研究法);建议将第四章中的一、服务点背景中的(一)基本情况介绍和(二)受灾后情况介绍合并;建议第六章中的结案内容放入第五章中,作为干预研究,第六章应该着重来写评估,包括过程评估、结果评估,如有,结果评估中还可以包含追踪评估的内容。2.研究背景部分交代了开展灾害社会工作的必要性,但是并没有聚焦到关注受灾老人的心理问题并进行心理恢复服务的必要性上,建议增加1-2段的内容,补充论述清楚开展本研究的必要性。3.建议将研究问题与研究内容的表述合并。4.需要在第三章关于访谈法的介绍部分,增加对被访对象的基本介绍,可以用一个表格的形式,介绍被访者代码、性别、年龄、身份角色、基本情况等信息。5.第五章关于评估的部分,是干预研究类论文的写作重点,目前的论述不够充分,且缺乏相应的论据,建议补充社工的观察、案主的自我陈述、案主家人或其他相关人的评述、量表测量等相关论据。6.第五章的反思部分,应该是本次个案干预研究的反思,既然本次干预解决的就是受灾老人的心理问题,为什么会存在对受灾老人的心理健康关注不足的问题?7.参考文献中有文献反复出现的情况,采取尾注式的参考文献引用,重复引用的文献可以采用交叉引用的方式,不建议在文后的参考文献中重复列出。且英文文献格式有问题,常有一个单词被分散在两行却没有连字符、拼写错误、单词与单词之间没有空格等问题。建议仔细校对。8.论文的格式规范还有待完善,尤其是文后参考文献的格式。,0,1,1,0,0,0,-1,0,0,0,0,0,0,0 +263,该论文针对单定子单转子结构的低速大转矩永磁同步电机转子内部空间利用不足的问题开展了研究工作,设计了一台矿用传送带用双定子低速大转矩永磁同步电机,选题具有现实意义,主要成果如下:(1)设计了双定子永磁电机,其中磁路结构采用串联磁路表贴式结构,内、外永磁体分别贴装在转子铁心内、外表面上,转子铁心的主要作用为机械支撑和提供径向磁路,该结构可利用转子内部空间,发挥双定子的优势。(2)确定了内、外单元电机的功率裂比,并按由外向内的设计思路,进行了电机电磁参数的选择与计算和电机结构参数的计算,建立了有限元模型,进行不同负载状态下电机电磁特性的仿真分析。 (3)选择合适的极槽配合,可有效降低永磁电机的齿槽转矩。(4)通过选取合适的控制因子、控制因子水平和试验优化目标,选择恰当的正交表建立参数组合试验样本,进行建模和有限元仿真,得出优化的参数组合。 论文写作较规范,逻辑性较强,达到硕士论文要求,同意答辩。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +37,2014年,为了适应农业适度规模经营的需要,中共中央发布一号文件、提出将土地承包经营权分离为土地承包权和土地经营权。从而形成农用地“土地所有权、土地承包权和土地经营权”三权分置的格局。2018年12月29日,十三届全国人大常委会第七次会议表决通过了《关于修改<农村土地承包法>的决定》。,该修正案更是将农村土地实行‘三权分置’的制度法制化。在三权分置下,土地所有权维持不步,而作为土地经营权产生前提和基础的土地承包权依然是非常重要的权利,然而我国法律对该权利的规定不够完善、有可能影响到农用地的三权分置。本论题具有一定的理论和现实意义。 论文论点明确、论述充分,结构合理。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +1594,论文对冷喷涂喷嘴进行了结构设计,分析了喷枪结构、入口参数对气体、固体颗粒出口速度的影响规律,探索了粉末冷喷涂在 Mg-Zn-Y-Ca 上制备纯 Al 涂层方法,通过电化学测试与浸泡腐蚀实验,分析了粉末冷喷涂纯 Al 涂层的耐腐蚀性。论文研究具有一定的的应用价值。 论文研究方法正确,论据较充分,写作较规范。论文工作表明论文作者具备综合运用基础理论和专业知识解决工程实际问题的能力。,0,0,0,0,1,1,1,0,0,1,0,1,0,0 +1101,本论文在传统内置式永磁电机弱磁时需要较大的直流去磁电流问题的基础上,提出了一种新型的直流电感大于交流电感的反凸极永磁电机。设计了一台 25kW的反凸极永磁电机并与传统永磁电机进行了对比分析。并且分析了转子交轴磁路上设置气隙磁障对电机电感的影响。 论文资料详实,综述丰富可靠,结构严谨,层次分明,重点突出,表达清晰。文章格式较符合学术规范。反映了作者具有独立科研能力。论文达到了硕士学位论文水平,同意其参加论文答辩,并建议授予硕士学位。,0,0,1,0,0,1,1,0,1,0,0,0,0,0 +208,多旋翼无人机其结构较为简单,灵活性强,在农业、军事、消防、商业等领域均有着非常广阔的应用前景。论文分析了一种油动重载四旋翼无人机传动系统的结构以及工作原理,从新型复合结构材料力学分析和装配体结构力学分析着手,探究了复合材料力学性能、复合材料力学与铺层角度的关系与碳纤维复合材料结构的失效准则。其研究具有较大的理论意义和一定的工程应用价值。 论文的主要工作和成果如下: 1、 通过理论分析和试验证明了铺层角度与碳纤维传动轴刚度之间的关系。通过有限元进行计算,找到了受力情况最好铺层方式。 2、 对包含复合材料传动轴的中间轴结构进行有限元分析,验证带有碳纤维复合材料轴的结构强度满足要求,说明了碳纤维传动轴作为传动轴的可行性;并对支臂拉力试验台进行了有限元分析,结果表明,传动系统支臂轴选用复合材料,满足升力载荷下的弯矩强度条件。 3、 对复合材料传动轴进行加载试验,发现碳纤维传动轴孔位部分发生破坏,针对失效曲线进行分析,在碳纤维传动轴与金属结构连接方式上进行优化,并对优化后进行有限元分析及试验验证,结果均满足强度要求。 论文文献综述全面,叙述概念清晰,分析严谨,结论合理。论文工作的技术难度较大和工作量适中,并有一定的创新。论文的整体情况表明了作者不仅具有较为扎实的理论基础,而且具备了较强的分析和解决工程实际问题的能力。论文的整体水平达到了硕士研究生学位论文的基本要求。,0,1,1,1,1,1,0,1,1,0,0,1,0,0 +49,SF6是重要的高绝缘气体电介质,但温室效应显著,采用SF6与N2、CF4等混合气体代替SF6是减少SF6气体用量的主要方向之一,论文对混合气体氛围下,直流环境下的闪络特性开展研究,具有一定的理论和实际工程意义,论文的主要工作包括: (1)搭建了试验模拟平台,分析了气压、电极间距、SF6含量等对闪络特性的影响; (2)发现了SF6含量增加导致的闪络电压的驼峰效应; (3)分析了混合其他的直流闪络电压的极性反转现象; 论文工作扎实,实验数据丰富,达到了硕士毕业论文的要求,建议提交答辩。,0,1,0,1,0,0,0,0,0,0,0,0,0,0 +2447,"该论文为翻译实践报告,是在《某乘用车维修手册》的翻译实践工作上进行的,选题符合翻译硕士研究生论文选题要求,所提出的翻译方法对提高译者的翻译水平具有一定的帮助,对当前的翻译也有较好的借鉴作用。该翻译实践报告在卡特福德的翻译转换理论指导下,根据具体案例进行针对性分析,立足于词汇和句法层面对翻译文本进行翻译技巧分析,对比分析了原语文本和目标文本,认为在翻译过程中应当树立转换思维,反思翻译过程中存在的局限性,总结了收获。总体上看,对原文理解和分析较为透彻,显示出了较扎实的翻译理论和翻译知识。该实践报告条理性较清楚,逻辑性和综合分析能力较强,使用的研究方法和研究能力达到了翻译硕士实践报告的相关要求。论文不足和需要修改的方面如下:一、语言运用不规范,还待于进一步提升,如:(1)语言不准确,如在英语摘要多次使用“thispaper”,“Tobeginwith,thematerialneedstobesplitproperlyastheprimaryoneislengthyandtedious.What’smore,iftheoriginaltextisaportabledocumentformat,itisnecessarytochangeitintoawordoneforreasonthatitiseasiertohandleduringthetranslationprocess.”(P4);“inmaterialtranslation”;“AnalysisonOriginaltext”(P5);“Onbasisofnoerrorsinwordsspellingandgrammarmistakes,”(P7);“Thissentenceisanadverbialclauseofconditionandthestructureisnotthatdifficult.”(P19)等多处都存在问题或表达不清楚,建议提升语言运用能力。(2)语法错误,如“Translationpolishinginclude”(P7);“What’smore,thetargetsentencedividedtheoriginaloneintotwosentencesfromitslogic,whichmakesthetranslationeasierandmorecompact”(P18)等多处存在类似问题。(3)大小写不分,如“Chapterone”,“Chaptertwo”(P1);“:Inexample1,”(P12);“example13”(P17)等;(4)标点符号不准确:如““diagnosis”,”(P12);““isejected”,”(P22)等多处出现类似的问题,如(P13)等多处存在类似的问题。二、论文中过多使用“firstly,secondly”等序数词,降低了学术性。三、缺乏过渡段,如“2.TaskProcess2.1BeforeTranslation2.1.1OriginalTextProcessed”(P4);“3.TranslationTheory3.1TranslationShiftsTheory”(P9)等多处存在类似问题,请认真修改。总之,该论文达到翻译硕士学位论文的要求,同意组织论文答辩。",0,1,0,0,1,1,-1,0,1,1,0,0,0,0 +1847,论文以自动操作为背景,开展基于图像的抓取检测技术研究,选题具有较大的工程应用价值。 论文首先对抓取相关的国内外研究现状进行了比较深入地介绍和分析,提出了基于迁移学习的抓取检 测方法;通过将生成抓取参数任务分成目标识别和抓取检测两部分,分别搭建区域级抓取参数生成方法和像素级抓取参数生成方法的网络结构,分别基于迁移学习的特征提取技术和语义分割技术特征提取技术开展网络训练和抓取检测研究,并通过网络训练与验证试验证明了算法的有效性。 论文撰写条理清楚,格式基本规范。论文工作表明作者具有较扎实的基础理论知识和较强的科研工作能力。论文达到了硕士学位要求。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +916,该论文以批评话语分析为理论框架,基于政治话语中的互文性现象的理论思考,对政治话语中互文性的生成机制及在社会语境影响下政治话语中互文性的社会语用功能进行了相关 的研究。该论文选题符合语言学学科特点,具有一定的理论和实践价值。论文的层次较清晰,章节之间的逻辑关系也比较明朗,文献数据较为科学,基础知识与基本理论较为扎实,研究方法运用得当。论文的结构较为完整,论据较充分,研究结论可信。论文已达到硕士论文水平,可以参加论文答辩。,0,1,1,0,1,0,0,0,1,1,0,0,0,0 +2243,1.综合评价论文按照市场法评估思路,构建了基于用户感知价值的在线音乐平台企业价值评估模型,并以网易云音乐为案例对该模型可行性做了验证。论文选题具有一定的现实意义,论文结构较为合理,研究逻辑较为清晰、语言基本流畅,研究结论对在线音乐平台价值评估实践具有一定的启示。2.是否达到硕士学位水平基本达到硕士学位水平3.论文存在的问题及不足之处(1)作者在文中多处提到“用户感知价值对于在线音乐企业估值来说影响重大,但传统的评估方法往往忽略了这一重要影响因素,导致企业价值的评估与实际价值不符”。如何证明传统评估方法导致在线音乐企业估值与实际不符?这是本文研究必要性的基础,作者需给出坚实的事实或文献支撑。(2)逻辑上来说,在线音乐平台的用户规模或者月活数量就直接反映了用户感知质量,即用户感知质量越高,用户规模和月活数量越大。那么,作者为什么还要用问卷调查这种主观打分的方法,而不是利用客观数据进行价值评估?作者需要就此给出充分解释。(3)评价指标是论文最核心的一环。作者仅非常简单地介绍了28个初始指标和22个最终指标的筛选过程。作者需要对此进行强化,以增进评价指标体系的可靠性。(4)根据艾瑞咨询的调查数据,网易云用户在24岁以下年龄段更有优势(占比33%左右),QQ音乐在25-30岁年龄段更有优势。那么,采用高校在校大学生作为调查样本(在问卷调查样本中占比88.8%)是否有可能高估网易云音乐的企业价值?作者需要在文中对此做出解释,并分析问卷样本选择可能对结果产生的影响。,0,1,0,0,0,0,0,1,1,-1,1,0,0,0 +2445,该论文通过个案工作构建独居老人的社会支持系统,选题具有一定的理论意义和文现实意义。主要内容的陈述比较清晰,结构完整。个案工作的实施过程作为论文的主体部分,其程序比较完整,服务开展的针对性比较强,具有可操作性,访谈和量表的内容具有一定的可操作性和实际应用价值。建议:(1)p21页中提到的政策支持力度不足的问题需要慎重,社会政策的支持是以居住形态来决定么?(2)个案中注意对正式社会支持系统的挖掘,如社区两委、社区中的老年照护体系等。该论文可以达到硕士论文的水平,同意答辩。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +360,抗战时期“三三制”政权研究是中国近代历史研究尤其是新民主主义革命时期历史研究的重要课题。 以往很多学者对“三三制”政权的研究已经有了较为丰厚的成果,但大多集中在对“三三制”政权的背景、内涵、历史意义以及当代启示等方面进行研究,而忽略了对“三三制”政权建设过程的深入研究。论文作者着重研究了“三三制”政权的建设过程,总结、多角度分析过去的经验,从而提出了对当代政权建设的重要启示。从这个意义上讲,本论文的选题具有一定的历史意义和现实意义。 论文主要研究抗战时期陕甘宁边区“三三制”政权的建设。首先,分析“三三制”政权的提出历史背景和内容;其次研究陕甘宁边区“三三制”政权的建设过程及解决的主要问题;再次,研究边区“三三制”政权建设的特点;最后总结“三三制”政权建设的历史作用,得出陕甘宁边区“三三制”政权建设对当代的启示。 文章运用马克思主义的立场上、观点和方法,采取文献法和历史分析法对文献进行查阅、分析和整理,得出结论。文章主题鲜明,结构合理,层次清楚,行文流畅。反映出作者具有一定的写作能力和科研能力。文章达到了硕士学位论文的水准。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2101,永磁同步弧线电机与普通的永磁同步电机相比,并无特别的优势,从机械设计角度看要实现如翼闸门的驱动并不难,没必要设计一个相对昂贵的非标电机驱动翼闸门,所以课题的研究意义一般。 论文最大问题是研究难度不大,而且研究内容太少了。在电机结构确定后,由于需优化的参数并不多,采用普通的全局搜索也能快速获得最优解,看不到采用遗传算法的必要性。论文的创新点太弱了。,0,-1,0,-1,0,0,0,0,0,0,0,-1,0,0 +2618,论文的选题较合理,符合社会工作专业要求,具有现实意义。作者用参与观察法、文献研究法以L市人民医院为平台,重点探讨分析L市人民医院的医务社工服务中多元主体的信任关系的问题及原因,然后针对问题提出有效的建议,体现出一定的专业和方法素养。论文的不足与修改建议:1、第一章的第三“研究方法与研究设计”部分,内容中并没有对研究设计做出清楚说明。2、第一章的第四部分题目是研究问题,但内容却写的是产生问题的原因,逻辑不够严谨。3、论文结构不够合理。文献综述部分没有对国内外的相关文献进行系统梳理,没有全面综述相关领域的发展与现状。4、第三章的(一)部分中对L市人民医院情况概述篇幅有些多,没有侧重点,文字表达不够精炼,有些赘述情形。5、引用中英文参考文献大部分不够新,尤其是英文参考文献时间比较旧,没有追踪研究前沿。,0,1,-1,0,1,0,-1,-1,-1,0,0,0,0,0 +2394,本文旨在土工合成材料加筋土直剪、拉拔模型试验的基础上,以室内试验为基础,将界面试验得出的规律及结论应用于加筋新旧路堤现场试验中,并通过数值模拟分析找出差异沉降的关键因素,为实际的加筋新旧路堤施工与设计提供参考依据。作者以土工合成材料界面作用机理及加筋新旧路堤试验分析为题,具有一定的创新性和工程应用价值,论文结构布置较为紧凑,语言较为流畅,图表规范、严谨,工作量饱满,已达到硕士学位论文水平,同意答辩。论文存在的问题及不足之处:(1)对于数值模拟部分内容,为何选择有限差分FLAC3D数值计算软件,未进行论述,采用颗粒离散元与有限差分软件耦合开展多尺度细观模拟,研究土工格栅与土的界面效应会更佳,绪论部分1.2.3也有评述PFC方面的内容,建议作者可酌情考虑。(2)1.4.1小节小括号字体不对,建议修改;创新点的凝练不佳,建议适当修改。(3)参考文献的格式不规范,建议修改;建议补充2022年最新国内外高水平文献。,0,0,-1,1,0,0,-1,0,0,0,0,1,0,0 +303,该文选题是法律界长期关注的问题,具有理论探索价值和实践创新空间,反映出作者具有问题意识。文章资料基础较好,较为广泛地涉及国内外研究成果,论点较为明确,有一定的新意,对法学和传播学相关知识与理论的掌握及运用情况较好,论文工作量较大,结构合理,论述做到了理论联系实际,逻辑性较强,结论合理;文章表述规范、流畅。,0,1,0,1,0,0,0,1,1,0,0,0,0,0 +2049,网络虚假新闻侵害社会公众利益及国家治理的有效性。对于日益猖獗的网络虚假新闻,以法律手段治理相较于其他治理方式更具有稳定性和权威性。本研究具有理论和实用价值。作者对于本研究领域文献资料的掌握较为全面,对国内外研究动态的的评述较为准确。对本论文所要解决问题的目的及意义的论述也准确。论文对于网络虚假新闻等基本概念界定清晰。论文整体机构上论述较为完整,逻辑通顺,分析较为严谨。所选择的案例素材真实,基本上能支持论文主题及论文观点。论文的符合写作规范性要求,文字表达较为通顺。论文给出的研究成果的对于进一步的理论研究和规制网络虚假新闻实务工作具有一定的参考价值。从论文写作看,作者对于专业理论知识掌握广度较好,已经具有一定的独立从事科学研究的能力。,0,1,1,0,1,1,1,1,1,0,0,1,0,0 +856, 钢琴曲《邀舞》是韦伯较受欢迎的一首作品,其旋律鲜明,节奏张弛有度,音乐表现力较丰富。本文对钢琴曲《邀舞》进行分析有一定的研究意义。该论文论点较明确,能结合弹奏实践去分析研究《邀舞》的音乐特点,包括曲式结构及调式调性、主题旋律与和声织体等,与此同时从节奏、音色、触键、踏板等方面较详细的分析了这首作品的演奏技巧。 论文已基本按照上次的评审要求修正。但在第三章韦伯钢琴曲《邀舞》的演奏技巧研究中第四大点踏板的运用中也应该有小点,例如踏板的深度,切分踏板的使用等等,论述的条理性要再清晰一些。同时要明确论文的创新点。,0,1,0,0,0,0,0,0,-1,0,0,-1,0,0 +947,论文探讨了基于Gray-Markov的容器伸缩优化问题,提出了一种基于灰色马尔可夫预测模型的优化方案以提高水平和垂直伸缩策略的效率,有一定的应用价值和理论意义,难度适中,工作量适中。论文对要解决的问题和所要作的工作表述清晰,研究方案合理。论文撰写较为规范,结构合理,对创新点和不足之处进行了恰当的分析。论文表明该同学能综合运用本专业的知识、技术、方法,分析问题、解决问题,能够运用专业的工具进行实验研究,并对结果进行较为充分的分析和说明。,0,1,0,1,1,1,1,0,1,1,0,1,0,0 +1769,论文研究了一种双液压马达驱动风力发电机组总装机架自动翻转设备的液压马达同步控制系统,选题来源于工程实际,具有重要的理论意义和应用价值。 论文分析了总装机架自动翻转设备工作原理及工作要求,设计了自动翻转设备的液压系统,完成液压系统选件;建立了双液压马达系统数学模型,利用MATLAB进行仿真分析,提出了校正措施;选择了同步控制策略,加入PID控制,通过仿真验证了其可靠性;设计了单神经元PID控制模块和RBF径向基神经网络控制模块,仿真分析了同步控制效果;完成了总装机架自动翻转设备控制系统检测元件的选型,使用Labview软件设计了自动翻转设备的计算机控制系统。 论文有一定的技术难度、工作量充足,研究方法科学、数据可靠、论据充分、结论合理,层次清楚、语言通顺、有逻辑性,写作比较规范,表明作者掌握了本门学科及相关领域较扎实的基础理论与深入的专门知识,具有一定的独立从事科学技术研究和解决实际工程问题的能力。,0,0,0,1,1,1,1,1,1,1,0,0,0,0 +3004,以《高中生恋爱观现状及其教育对策研究——以广西三所高中为例》为题的硕士毕业论文选题符合专业培养方向,具有重要的现实意义。作者能够针对现实热点及棘手问题,运用复合的研究方法,设计调查问卷,并进行访谈。调查与问卷与访谈提纲设计详尽合理。对调查与访谈结果进行数据整理与理论分析,对高中生恋爱的状况,存在的问题及原因,乃至所提供的对策都非常的到位、恰当、具体。可见作者具有扎实的专业基础理论知识,具备较好的科研训练、较高的能力和水平。全文逻辑结构完整合理,行文规范、语言流畅,所用数据与图表准确美观。达到了硕士毕业论文水平,可以参加论文答辩,推荐参加优秀论文评选。在几个细节问题上给作者提出几点供参考,请以导师最终意见为准。如论文封皮上所填写的专业名称和研究方向应该是不准确的。第4页的引文[3]、第5页的引文[1][2]及参考文献中的英文文献格式还有一些细节问题,英文书名应以斜体表示,排版上不能把一个单词的的字母拆开,而应以音节为单位拆开后用连字符连接。,0,1,0,0,1,1,-1,1,1,0,0,0,0,0 +1375,该论文针对钙质胶结地层钻孔灌注桩施工中的塌孔问题,以新疆玉龙喀什河特大桥工程为背景,研究了泥浆的配合比,并通过室内模拟试验和数值计算手段,分析了泥浆的渗透性。选题来源于工程实际,论文研究成果对于钙质胶结地层条件下灌注桩施工有指导作用。作者对国内外相关研究现状进行了较为全面的归纳,研究目标明确,研究内容适当,工作量符合申请硕士学位论文要求。技术路线清晰,研究方案合理,结果分析较为深入。论文撰写符合规范。作者较好地掌握了本专业的基础知识,具备解决实际问题的能力。,0,1,1,1,1,1,1,0,0,1,1,0,0,0 +1885,论文针对电机设计所涉及的理论支撑足够,所差之处在于针对研究对象的应用背景提出的研究问题论证条理不清晰,且关键数据得出依据不明确(见不足及建议中的效率问题),针对设计及优化过程所得数据和曲线说明较为充分,但是没有抓住关键信息进行说明。发电机的额定电压、额定电流等参数未给出。针对主要的发电机效率指标的最终值(82%)直接给出存在失误。没有发电机电动势的设计分析(确定发电的速度范围)。没有励磁容量设计,磁场产生的磁阻力是否小于输入力(励磁电流的范围),输入机械力与速度对应关系。这些均无法判断发电机能够工作和符合要求。 因此建议作者针对发电机原理及特性进行设计及分析。 基本理论已经具备,建议重新按照发电机设计要求组织论文。,0,0,0,0,0,0,0,0,-1,0,0,0,0,0 +2931,脑卒中作为老年人群中的常发病,容易引起偏瘫产生的后遗症,导致出现运动障碍。桥式运动被称为选择性髋伸展,是最早的床位训练项目之一,同时也是早期康复训练中最适宜的动作之一。通过分析桥式运动的生理结构和运动特征,建立桥式运动简化数学模型。根据临床训练过程中患者与治疗师的交互行为,提出了智能化桥式运动康复训练平台的控制需求。基于临床治疗使用场景和使用方法,提出了智能化桥式运动康复训练平台的机构设计要求,并利用Solidworks中Simulation仿真模块对关键零部件进行仿真分析,验证机构的合理性。搭建了智能化桥式运动康复训练平台和评定系统平台进行相关的实验验证其合理性,并选取实验对象进行试验,通过分析评定系统试验,验证评定系统平台的准确性和合理性。通过对控制系统结构位置实验和力矩实验,验证了控制系统的合理性。不足:1.图5-8,不规范。2.图3-9,图3-10,的顺序反了。3.图2-6,图2-7,的顺序反了。,0,0,0,0,0,0,-1,0,0,0,0,0,0,0 +1977,马氏体时效钢具有优异的性能,广泛应用于航空、海洋、核能等高端科技领域。本文以马氏体时效钢custom455为研究对象,系统研究加工工艺对其组织演变的影响和强韧化机理,为压水堆核电站回路系统传热管用拉拔式机械堵头的技术路线国产化提供实验依据和理论支撑。论文选题实用,有重要的理论意义和实用价值。 作者对国内外的相关研究较为熟悉,具有较强的的文献资料查阅和综述能力,综述了大量中外文献,涉及本研究领域的前沿研究现状和发展趋势。作者制备了马氏体时效钢custom455,设计规划了切实可行的技术路线并予以实施。系统研究了热加工、热处理、长期时效对其组织性能的影响,讨论了影响机制,得出了合理的加工、处理工艺参数。 论文作者具有本专业较扎实的基础理论和专业知识水平,有较强的解决问题能力;作者具备了一定的科学研究和独立进行工作的能力。本论文研究方法正确、数据翔实、分析合理;具有重要的实用价值。 论文实验材料真实可靠,论文章节结构合理,逻辑性强,论文写作规范、文笔流畅、图表清晰。 综上,论文达到了硕士学位论文水平要求,同意组织论文答辩并建议授予硕士学位。,0,1,1,0,1,1,1,1,1,1,0,0,0,0 +1143,本文对在线旅行社在线信誉系统形成及优化进行研究,选题具有一定的理论价值与现实意义。在对相关理论和文献评述的基础上,论文结合在线旅行社的实际背景对在线旅行社在线信誉系统特征给予分析,探讨在线旅行社在线信誉系统在消除逆向选择问题、促进在线交易达成中的积极作用;基于系统动力学理论研究在线旅行社在线信誉系统的形成机制,探索影响在线信誉系统的关键因素;建立考虑评分人历史信誉度的信誉计算模型对在线信誉系统进行相关优化,并于在线旅行社平台的数据证明优化模型的有效性显著,并提出了相关建议。 论文研究视角比较新,文献研究比较深入,掌握专业理论知识有一定深度和广度,论文结构比较清晰,论文比较规范,表明作者具有一定独立从事科学研究工作的能力。,0,1,1,0,1,1,1,0,1,0,0,1,0,0 +2089,一、关于论文选题的理论或实用价值 论文研究平衡计分卡在HD发电公司碳绩效评价问题,解决企业的实际问题,有明确的应用背景和应用价值。 二、对本学科及相关领域的综述与总结 1. 论文结合研究的部目的,将文献按照三类标准,对文献进行归类,说明作者具备本学科的研究综述和总结能力,但相关文献还不够前沿,比如碳绩效评价的方法主要物资流和价值流两种方法,论文文献综述没有涉及。 2.论文在案例归纳部分,没有体现H发电公司碳排放管理案例“为什么”、“怎么样”影响到企业的碳绩效,只是就评价指标评分得出结论好坏。 三、论文在理论或方法上的创新性 论文通过案例研究,将传统的BSC评价法改为SBSC模型,用于评价H发电公司碳绩效,在当前“碳达峰和碳中和”成为社会热点,碳绩效评价成为绩效评价的一个分支,用SBSC构建指标体系,进行碳绩效评价,方法比较常见。 四、论文成果价值 论文通过SBSC指标体系构建,通过层次分析计算,得出发现低碳财务指标在 SBSC 的五个维度中权重最大,对H发电公司决策具有一定参考价值。 五、论文的基础理论和专门知识及独立从事科研工作的能力的评价 论文用可持续发展理论、循环经济理论、利益相关者理论和可持续平衡计分卡来解释论文,基本能解释碳绩效评价,说明作者具备一定的研究工作能力。,0,0,0,0,0,1,0,0,0,0,0,0,0,0 +1047,2020年专利法对职务发明作了细部修改,但对单位与职务发明人之间的权益分配依然缺乏明确的规定。该论文将实践中单位与发明人之间最大的争议焦点“职务发明人权益保护”作为讨论的主题,具有较好的实践指导意义。 在资料运用上最值得肯定的是作者对现有案例的梳理、归纳和分析,并将数据和信息作为论述问题解决问题的有利论据。 论文从职务发明的内涵、基础理论出发,分析了我国职务发明制度中职务发明人权益保护中存在的不足,借鉴域外经验,提出了解决问题的措施。论文结构合理,逻辑性较好,文字表达清晰,在不考虑重复率因素之下,论文符合规范。,0,0,0,0,0,0,1,1,1,0,0,1,0,0 +2986,新能源汽车技术创新一直是该产业研究的热点问题。本文在文献分析的基础上,以如何提高新能源汽车的技术创新能力,以促进新能源汽车产业的发展为题进行问题提炼、研究假设和模型建进行求解研究。本选题对丰富新能源汽车技术创新相关理论具有理论意义,其技术创新培育路径较为贴近实际,具有实践意义。本文综合了资源观和过程观对技术创新概念的定义,基于技术创新资源存量、技术创新效率、产出反馈效率和经济效益产出四个部分构建了技术创新循环系统,尤其基于技术创新循环系统,选择了我国2012-2020年间14家新能源汽车企业作为研究对象,从内部资源存量障碍因素和转化过程潜在影响因素出发分析影响新能源汽车技术创新能力的关键因素,提出技术创新能力的培育路径。该篇论文内容丰富,逻辑构架基本合理,文字表达流畅,注重量化研究,将实际问题转化为科学问题,再指导实践,符合企管专业科学研究规律及学术规范,研究方法科学合理,结论经得起推敲,综上所述,本文达到企业管理专业的硕士学位论文水平,同意直接进行论文答辩。存在的问题及不足:本文在技术创新存量指标和效率的影响因素选择上,由于数据可获取性等限制,在考虑外部影响因素时,只考虑了需求侧要素,而忽略了外部环境等要素。其实,企业的技术创新系统是一个复杂性系统,可考虑基于复杂性科学(Complexadaptivesystems)与方法更好地解决这一问题,提出对策。,0,1,0,0,0,0,1,1,1,0,0,1,0,0 +275,该论文主要工作如下:1、针对LCL型并网逆变器在谐振处存在谐振尖峰的问题,采取了电容电流反馈与并网电流反馈的双电流环的有源阻尼法进行抑制;前级电压波动问题加入了电压外环的PI控制。并对基于电容电流反馈的PI、准PR为代表的传统控制策略进行研究。2、在系统研究非线性自抗扰后,针对算法待整定参数多、结构复杂的问题采用线性自抗扰控制算法(LADRC),并推导三阶自抗扰控制算法。3、将自抗扰控制技术与并网控制技术相结合,设计LCL并网控制的三阶自抗扰控制器。选题来源于实践,有一定的实际使用价值;归纳总结全面,在研究非线性自抗扰和自抗扰技术与并网控制技术结合方面具有新颖性。 所采用的研究方法具有一定的实用性,论文写作规范,图表清晰、 结构合理、层次分明、文字通顺,说明该生具有扎实的理论基础和较强科研能力,论文达到专业硕士的水准,同意答辩。,0,0,0,0,0,1,1,1,0,1,0,0,0,0 +456,论文实现了一款基于IOS平台的茶叶了解和购买应用程序,完成了首页设计、用户登录注册、购物车、订单、个人中心等功能模块,并对应用程序进行了测试。论文选题具备现实意义,但论文对自身创新点表述不清,国内外研究现状介绍不充分,需求分析与设计方法不专业,存在需求与设计前后不一致现象,程序测试不全面,写作存在不规范之处,参考文献引用不权威,与硕士学位论文要求还有差距,需要进行较大的修改后答辩。,0,1,-1,0,0,0,-1,0,0,-1,0,-1,0,0 +537,论文研究青岛海尔并购通用家电的期权价值,为并购企业提供了一种新的 价值评估方法。研究具有较重要的现实意义。 论文在国内外相关文献的基础上,说明了实物期权方法在企业价值评估中的可行性 、B—S模型及相关参数的确定方法。接着,选取青岛海尔公司并购美国通用电气旗下家电业务的案例,将现金流折法和实物期权得到结果相加作为通用家电的总体价值。同时利用实物期权的方法,计算出了并购后在采购、研发、市场与供应链三方面协同效应的期权价值。2018年年报指出,并购后的近几年的确产生了高于预估的协同价值。论文的研究方法弥补了传统价值评估方法的不足,同时为评估协效应的期权价值提供了依据,为今后并购海外标的企业价值评估 以及并购后持续经营投资决策提供了一种新的视野。 论文采用案例研究方法,表明作者掌握了较好的经济管理相关知识,具有一定的分析问题和解决问题的能力。 论文观点正确、研究规范、文笔流畅,达到硕士毕业论文水平。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2142,针对工业尾矿固废处理与再利用问题,论文以本溪歪头山铁矿剥离废石及铁尾矿为研究对象,对水泥稳定废石-铁尾矿材料的道路基层路用性能展开较为系统的室内试验研究,并将其实践应用于某二级路基工程中,主要工作包括:对本溪典型废石和铁尾矿材料的物理化学性能进行了测定,初步验证了其路用性能;分为骨架密实型和悬浮密实型两种类型,对水泥稳定废石-铁尾矿基层材料的级配进行设计,并通过振动击实试验,确定其最大干密度和最佳含水量;试验分析了水泥、废石、铁尾矿掺量对水泥稳定废石-铁尾矿材料的无侧限抗压强度、抗压回弹模量、劈裂强度、干缩性能和抗冻性能等的影响,确定了水泥稳定废石-铁尾矿材料的最优掺量配比,并用于实际工程进行验证。研究成果有助于丰富我国工业尾矿综合利用技术,选题具有一定的理论研究和工程应用价值。论文结构合理,内容丰富,撰写较为规范,达到了硕士学位论文的水平,建议适当修改后进行答辩。,0,1,0,1,0,0,1,0,1,0,0,0,0,0 +2551,该文以戒毒康复人员就业困难为研究选题,关注社区戒毒康复人员的社会生活,对于我国推进平安中国、法治中国建设的总目标有一定的意义。在社会工作的介入方法上选取了个案工作方法,从优势视角理论和结构式家庭治疗理论的视角出发,从个人、家庭、社会方面阐述了社区戒毒康复人员就业困境,并探索了社会工作介入方式,以此对于社会工作在戒毒领域开展具有探索性的意义。文章能够对国内外戒毒与戒毒社会工作的相关研究文献进行基本的把握,为论文的开展奠定了基础。文章对**街道社区戒毒情况进行了总体梳理,资料较为详实,个案社会工作实务开展较为规范,记录较为详细。表明社会工作实务方法在论文写作中应用比较扎实。总体上,文章结构合理,逻辑较为清晰,论述较为规范。达到了专业硕士学位论文水平。文章的不足之处在于:首先,在研究方法上,需要区分“个案社会工作”与“个案研究法”的区别,从本文内容来看,运用的是个案社会工作的实务开展方法。其次,理论的应用不足。前文提出的理论更多是实务开展的理论基础,而不是全文的研究基础。正是因为缺乏全文开展研究的相关理论基础,因此使得文章最后提出的建议内容相对缺乏理论支撑。,0,0,0,0,0,0,1,0,1,-1,0,0,-1,0 +1428,"该同学的硕士学位论文“252kV/63kA合成回路试验系统研究”,分析了国内外本领域的研究状况,选题正确。具有实用价值和理论意义。主要研究工作和成果如下: 1. 在分析合成回路试验原理的基础上设计电流引入回路,对回路参数进行计算与仿真。 2. 根据试验要求设计合成回路控制系统和进行了相应的断路器开断试验。 具有独立工作能力,有新见解。在本门学科上掌握了坚实的基础理论和系统的专门知识。概念较清晰,层次分明,学风严谨,文字图表规范。 达到硕士论文水平。同意组织答辩。",0,1,1,0,1,1,1,1,1,0,0,0,0,1 +1383,该论文针对铝合金易腐蚀、摩擦系数大,耐磨性差,硬度低的缺点,利用维护氧化技术在铝合金的表面制备Al2O3/ZrO2颗粒微弧氧化复合陶瓷膜,能够改善铝合金的耐磨性及耐蚀性。研究了工艺参数、纳米ZrO2颗粒尺寸、含量对膜层的硬度、耐磨性能及耐蚀性能的影响,对其腐蚀机理和磨损机理进行探讨。具有一定的工程参考价值。 论文工作量较大,数据分析较为深入,论文撰写逻辑性较强,达到了硕士毕业论文要求的水平。,0,1,0,1,0,0,0,0,1,0,0,1,0,0 +708,"硕士研究生**的硕士学位论文“基于HACCP和FMEA的X高校食堂食品控制研究”具有一定的理论研究意义和实际应用价值。本文针对X高校食堂原材料数量大、品种多,极可能出现管理工作疏忽、不规范、流于形式等问题,开展了X高校食堂质量管理的改进研究,取得了一定的研究成果。论文的主要内容包括: (1)对X高校食堂的基本情况和经营情况进行了分析,归纳了X高校食堂食品质量现状存在的主要问题; (2)结合X高校食堂的实际情况,设计了基于FMEA的HACCP的X高校食堂食品质量控制规划; (3)通过基于FMEA和HACCP质量计划的实施,提升了X高校食堂内部质量管理,规范了质量管理操作标准。 总体上讲,硕士研究生**的工业工程学科知识较扎实,论文的逻辑较清晰、书写较规范、内容较丰富,研究内容工作量基本达到了工学硕士学位论文的要求,论文的分析内容对高校食堂食品质量控制的深入研究和应用,具有一定的借鉴意义。",0,1,0,1,0,0,1,0,1,0,0,0,0,0 +2176,作者对管道漏磁内检测的缺陷识别方法进行了研究。提出了基于漏磁数据成像的管道缺陷识别方法,通过小波分析去除漏磁数据中的噪声干扰,并将通道基准校准,提高整体成像质量。利用互相关算法判断环焊缝是否有缺陷,使用自适应阈值分割方法将漏磁检测图像转化为二值图像,从而实现对管体缺陷的识别与定位。 论文选题具有很强的实用价值,条理清晰,层次分明,达到了硕士学位论文的要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2883,论文在总结前人经验的基础上,针的对传统混合估计的不足,提出在面板数据基础上将Lasso模型和分位数回归模型相结合,构建了一套lasso-分位数回归模型,对新能源企业价值影响因素进行评估分析。并结合实证结果与现实情况,从政府、企业和投资者的角度提出建议。虽然文中选用上市公司宝新能源(000690)2020年报的相关数据进行计算分别得到混合估计模型下的企业价值和Lasso模型下的企业价值进行了简单的对比分析,但论文的主要内容是对我国上市新能源公司企业价值影响因素的研究。论文题目和研究内容不太相符,题目的选取基本达到资产评估专硕的培养方向和培养方案。论文内容不够精炼,语言不够通畅;建议选取一个我国有代表性的新能源公司对其企业价值进行深入分析,用不同的方法对比研究。,-1,1,0,0,0,0,0,0,0,-1,0,0,0,0 +712,随着经济的不断发展,新型的商业模式不断涌现,典型是伴随着互联网发展而兴起的电子商务,电子商务是21世纪以来最主要的商业模式之一。相比较于传统行业的采购生产销售的商业模式,浙江九好办公服务集团有限公司(简称九好集团)所代表的B2B平台企业特点可概括为运用了互联网技术搭建的交易平台,在交易中平台仅作为中间媒介不参与核心价值的创造,业务量庞大,往来方数量多。 与其他商业模式相比,B2B商业模式的财务舞弊手段有何不一样,存在哪些特点?论文以“B2B平台企业财务舞弊案例研究——以九好集团为例”为选题,具有重要的理论和实践意义。作者在回顾相关文献基础上,介绍了B2B商业模式和财务舞弊的理论知识,通过分析九好集团财务舞弊的目的、手段和影响,得出了具有一定参考价值的研究结论,并提出了相关对策建议,为同类型企业提供借鉴,为相关监管机构提供帮助。通过论文反映作者具有坚实的学科知识,具备一定独立从事研究能力。论文结构合理,逻辑清晰,写作规范。,0,1,0,0,1,1,1,0,1,0,1,0,0,0 +2621,论文的总体评价:论文选题符合专业培养目标,具有实际应用价值,能够达到综合训练目标。研究内容涉及面广,工作量和难度大,研究深入。论文构思清晰、依据充分、论证科学合理、有创新性;论点突出,材料充实,叙述层次分明。有较强的查阅文献资料的能力,能全面搜集有关资料和学术信息,在撰写的过程中能综合运用自身所学的基础知识及专业理论,对论题进行全面的探讨和深入的分析。能在实践基础上结合毕业创作选题进行专业分析和理论阐述,但作品艺术水平和创作手段新颖一般,资料引证,作者引证、文字、图标等欠规范,应进一步提升写作规范和学术能力。能够通过对相关理论学科问题进行相关资料的搜集与整理、分析与总结讨论,分析中国乡村发展康养产业面临的重大困境和较突出的问题。分析在自然资源、地理位置、经济条件等多种因素前提下以康养产业为主导模式的乡村规划中产业发展的可实施性、特殊性以及可持续发展性,提出的以康养产业为主导的新型乡村产业规划策略。以可持续发展理念为核心,对古砦乡进行村庄规划研究,分析古砦乡在各方面的基础条件,对古砦乡的发展进行精确定位,并提出规划设计方案。将乡村康养产业与古砦乡相结合,对推动在可持续发展理念下发展我国乡村康养的研究起到一定的参考意义;以乡村康养产业为龙头推动各行业之间相互促进,构建完善的产业结构体系,对乡村的可持续发展具有一定的现实意义。论文的存在问题和建议:(1)摘要部分进一步总结凝练,当前摘要结构存在问题,应突出重点从研究的目的、方法、结果、结论4部分总结,注意语言措辞的准确;(2)论文研究的框架效果太差,建议重新梳理完善(框架应体现出:问题的提出、剖析问题、解决问题、结论和展望等);(3)“乡村康养的主要模式”部分,建议结合相关图片资料进行标注分析,图文并茂地剖析乡村康养的主要模式;(4)建议论文从结构上将对柳州古砦乡的现状调研和策略研究作为单独一章,将设计实践单独作为一章书写;(5)“图3-1古砦乡调研实景图(一)、图3-2古砦乡调研实景图(二)”未标明图片的来源,文中应对应标注出图片的位置,检查全文类似问题进行完善,以提高论文写作的规范性;(6)“古砦乡的基础条件”部分,内容体现的是当前存在的问题,建议将标题修改为“古砦乡的现状问题”为宜;(7)“图3-5古砦乡人居环境实拍图”图片说明应清楚图片要表达的相关信息(如改图“废弃房屋环境未有效治理”),检查全文类似问题进行完善;(8)“图3-9古砦乡区位分析图”图中标注的信息,不能清晰可辨的反映相关内容,检查全文类似问题,提高论文写作的严谨性;(9)“古砦乡的人文景观”部分,对古砦乡的人文景观调研总结完之后应体现出和论文研究核心内容的关系;(10)“图3-15古砦乡卫星图”文中图片来源来自网络的应当把具体的网站名称标注清楚,检查全文类似问题,进一步完善,提升论文写作规范;(11)论文研究应该得出普适性的规划设计策略以指导同类项目的开展,以提升论文研究的现实意义;(12)“图3-18古砦乡总体规划平面图”规划设计部分图纸标注文字、数据、图例等信息模糊,严重影响展示效果,进一步提升图纸绘制的规范性;(13)论文中未体现出研究的创新点(体现出论文的理论创新、方法创新、技术创新等;),建议补充完善以加强论文写作的完整性。评审结论:基本达到硕士学位论文的要求,同意进行一定修改后并经导师审核后答辩。,0,1,1,1,1,1,-1,1,1,1,0,1,1,0 +1250,大数据时代的到来,使得快速有效定位个性化需求信息变得必要而重要。该论文主要考虑协同过滤推荐算法,从数据不足(又称稀疏性)出发,采用改进的皮尔逊相关系数计算项目的相似度,结合加权Slope one 算法提出了改进的协同过滤算法。为了提高推荐算法的扩展性,论文将Canopy聚类和K-means聚类算法叠加,用余弦相似度公式计算用户属性,以期改善推荐算法。论文亦给出了数值实验。 论文选题具有一定的数学研究意义和广泛的应用价值,研究结果基本正确,表明作者对国内外研究现状有了解,并具有一定的科研能力。 论文结构完整,撰写正确,是一篇合格的硕士毕业论文,修改后可直接答辩。,0,1,0,0,0,1,0,0,0,0,1,0,0,0 +476,论文选题对于完善我国过度医疗侵权法律制度,明确过度医疗侵权责任,维护患者合法权益、完善救济方式,建立和谐的医患关系,促进医疗事业健康发展等都有现实意义。论文从过度医疗侵权概述入手,在分析过度医疗侵权相关法律问题的基础上,探讨了我国过度医疗侵权法律适用存在的问题,提出了完善过度医疗法律规制的建议。论文的主要观点:1)从扩大《侵权责任法》第63条的内含范围、细化过度医疗侵权行为认定标准两方面完善法律适用标准;2)完善过度医疗侵权举证责任制度,构建专家辅助患者实施举证责任制度、引进举证责任缓和制度;3)完善医疗损害鉴定制度,构建统一的鉴定体系、完善鉴定人选拔以及承担责任制度、鉴定程序透明化。论文的上述观点及其提出的对过度医疗概念的见解,以及对我国在过度医疗侵权规制上的不足所进行的研究都有一定新意。论文所作研究对于完善过度医疗法律规制及其相关理论,增强相关法律规定的可操作性,在司法实践中正确认定过度医疗侵权责任,维护患者和医方合法权益,构建和谐的医患关系等都有积极意义。 论文资料详实、写作较规范、层次较清楚、逻辑结构合理;论点较明确、论证较合理、论据较充分,能够运用所学知识分析、探讨过度医疗侵权责任法律问题,通过理论研究和相关数据的分析比对,并提出自己见解,值得的肯定。,0,1,0,0,1,1,1,0,1,0,0,0,0,0 +218,该论文不能通过评审,主要问题如下: 1)论文的写作方式让人看不懂,既看不到simulink的实际模型,又没有看到相应的电气量仿真结果,仅给出了位置跟踪误差。 在论文中直接给出了一套PMLSM参数,然后就得到了公式3.30和3.31,这些公式的给出也没有任何的过程,完全没有交代清楚是怎么回事!让人一头雾水! 2)论文第26页以前全部都是摘抄相应文献,没有自己的工作,除了在假设处标引了文献外,其余均未做任何标注,有学术不规范之嫌。前面第2章介绍的数学模型,在后面也没有用到。 3)论文的整体工作量很小,且没有区分出自己的工作和别人的工作。,0,0,0,-1,0,0,-1,0,-1,0,0,0,0,-1 +1405,该生的论文研究划片机的定位误差补偿方法,针对划片机误差补偿建模难、误差源考虑不全等因素,利用数据驱动迭代学习控制算法和神经网络算法,构建了神经网络迭代学习误差补偿方法。并用MATLAB软件仿真验证了算法的有效性。论文的选题有一定的实际意义和理论价值。论文从整体上看,结构清楚,逻辑清晰,语言表述准确,排版符合规范,是一篇合格的硕士学位论文。,0,1,0,0,0,0,0,1,1,0,0,0,0,0 +1915,论文针对火力发电机组关键控制参数主蒸汽温度由于具有大惯性、大滞后特点及同时受到多种因素干扰影响,难以实现满足工程需求的问题,首先分析了火电厂主汽温的动静态特性,依据其动态特性选取了基于减温水扰动下主汽温的数学模型,简要介绍了PID 串级控制原理及参数选取方法,并对其仿真验证;接着详细介绍了动态矩阵控制(DMC,Dynamic Matrix Control)算法的基本原理,介绍了 DMC 控制参数选取方法及注意事项,设计了基于 DMC 算法的主汽温控制系统,在进行仿真实验后指出了 DMC 控制器在模型失配严重情况下存在着控制效果较差等问题;针对 DMC 控制器的缺点,引入了模糊控制(Fuzzy Control)器进行温度补偿调节,设计了模糊动态矩阵(Fuzzy-DMC)控制器,引入了变论域(Variable Universe)思想,通过伸缩因子调节使得论域随着误差减小或增大相应的伸缩或扩大,从而提高模糊控制器的自适应能力和控制精度;最后对所设计的控制器进行仿真验证,仿真结果表明变论域 Fuzzy-DMC 控制器相比于 PID 控制、DMC 控制及 Fuzzy-DMC 控制在模型匹配及模型失配情况下均具有较好的控制效果,大大的降低了温度超调量及调节时间,系统表现出较强的鲁棒性。论文立论正确,研究设计过程规范,层次分明,阐述清晰,有较强的逻辑连贯性。论文格式规范,可以看出工作量足够,作者综合能力较强。研究结果有很好的工程应用参考价值,论文达到了硕士学位论文水平。,0,0,0,1,0,0,1,1,1,1,0,1,0,0 +561,论文以高强度金属0Cr18Ni9 合金为研究对象,针对棒材矫直后残余应力过大、分布不均匀、矫后棒材产生滞后回弹的现象,通过理论分析、有限元模拟、实验的方法对其展开研究,推导出棒材反弯弯矩与弹区比、棒材原始弯曲曲率的关系;结合棒材二斜辊矫直变形机理,提出采用等曲率反弯辊形代替生产过程中采用的压力矫直原理设计的经验辊形解决棒材矫后残余应力大、分布不均匀的问题。论文选题意义很好,研究方法科学,学科知识掌握较好。写作规范性较好。,0,1,0,0,1,0,1,0,0,1,0,0,0,0 +1154,本文首先依据7075合金现存的耐蚀性不高的问题,作者在阅读大量国内外参考文献基础并进行较为详细分析基础上,提出采用激光预处理配合固溶和时效处理来改善7075合金的耐蚀性问题,选题正确,对现实工业生产具有一定指导意义。 本文采用比较研究的方法,将固溶处理加激光高温预析出加时效的处理方法与固溶处理加常规高温预析出加时效的处理方法所获得的7075合金的组织和耐蚀性以及力学性能、耐磨性进行对比研究,发现经激光预处理后,7075合金的组织状态得到了明显改善,耐蚀性和力学性能都有不同程度地提高。说明激光预处理对7075合金的性能改善是有作用的。 本文技术路线合理,思路清晰,所用技术手段先进,所得数据可靠,结论可信。表明作者基本掌握了本学科的基本理论知识,具有一定的独立从事本学科科学研究和新工艺开发的能力。综上,本文达到了工学硕士论文要求的水平。,0,1,1,0,1,1,0,0,1,1,1,0,0,0 +517,论文研究短路故障发生影响变压器抗短路能力,分析了变压器多次短路过程,包括不同连接方式下变压器短路电流的计算,变压器相间磁场对绕组受力的影响,变压器短路后重合闸短路电流的计算,变压器多次累积绕组变化过程。结论有利于提高变压器抗短路故障能力,通过分析多次短路下绕组受力和残余形变,为变压器稳定提出建议,同时,对于电网经济稳定运行具有十分重要的意义。因此,选题具有实际应用价值。 论文的工作重要是分析与仿真,但是,缺乏具体的参数及实际验证结果;论文逻辑性较差、文字错误太多。,0,1,0,0,0,0,0,-1,-1,-1,1,0,0,0 +47,SF6的液化温度较高的问题限制了其在高寒地区的应用,SF6/CF4混合气体有望取代SF6适用于高寒地区的环境,但其热力学参数和绝缘性能尚不清楚,论文对此开展研究,具有重要的理论和实际意义,论文的主要工作包括: (1)采用密度泛函理论对SF6/CF4混合其他的电离能、分子振动频率、电子亲和能等微观参数进行了分析; (2)计算了不同平衡系数下混合气体粒子组分随温度的变化关系; (3)利用玻尔兹曼方程计算了电离反应系数、吸附反应系数随温度、压力、混合气体组分等的变化关系,得到了临界击穿场强与压强的定量关系; 论文工作量饱满、计算过程严谨,达到了硕士毕业论文的要求,建议提交答辩。,0,1,0,1,0,0,0,0,0,1,0,0,0,0 +132,本文选题具有一定的实用价值,但国内外研究动态及其评述过于简单。文章给出了一种针对带隙基准电压源的具体设计方案,作者提出了利用上电复位信号读取熔丝状态的方法,设计了相关电路,降低了修调电路部分的功耗。设计的带隙基准电压源的温度系数低于 2ppm/℃,可以吸收 100μA 的电流和输出 15mA 电流能力,PSRR 在不同电源电压下均大于-100dB,系统整体静态电流在 65μA 以下,显示了作者具有独立从事科学研究的能力。文章撰写规范,条理比较清楚。,0,1,-1,0,1,0,1,1,0,0,0,0,0,0 +1277,该论文: 1)建立屏蔽电机的数学模型,仿真分析了变频器谐波对真空泵电机性能的影响;建立适用于电机的基于id=0的无速度传感器控制系统,通过实验验证了开展谐波影响和谐波抑制的必要性以及控制系统的合理性。 (2)为了实现对对有源滤波器的实时动态调控,需要对谐波与无功电流进行在线检测,本文深入研究了基于瞬时无功功率理论的ip-iq法,使用ip-iq法的谐波检测算法和三角波比较控制策略,构建有源滤波器对电机时间谐波进行抑制;就本文实例而言,电流谐波抑制前后电流谐波畸变率由11.97%降低至4.66%,证明了有源滤波器设计的有效性。 (3)研究有源滤波器对真空泵驱动屏蔽电机性能的影响,就本文实例而言,滤波前转矩脉动为0.6N左右,滤波后转矩脉动为0.2N左右,降低了22.2%,转速波动由18r/min降低至4r/min,降低了77.7%;电机定子铁由27.8W降低至19.1W,降低了31.2%,转子铁耗波形有效值由0.054W降低至0.035W,降低了35.2%;屏蔽套涡流损耗由17.7W降低至11.8W,降低了33.3%,永磁体涡流损耗由18.2W降低至11.9W,降低了34.6%。 论文的学术水平已达到硕士学位要求,同意答辩。,0,0,0,0,0,0,0,0,0,0,0,1,0,0 +1202,本文以中小模数的内齿轮测量为研究对象,研究基于视觉处理的内齿轮齿廓总偏差和齿距偏差的测量方法。论文选题课题既有使用实践意义,作者对国内外研究动态有一定程度了解和掌握。文中提出一种基于逻辑回归的内齿轮测量方法:通过将现有的逻辑回归算法应用于亚像素边缘定位,使用该亚像素边缘定位算法对采集的内齿轮图像进行齿廓提取,根据提取的亚像素齿廓点建立内齿轮齿廓总偏差计算模型和单个齿距偏差计算模型。也通过对8级精度的内齿轮的偏差测量进行了验证实验。研究环节相对完整。论文表达基本清楚。论文研究反映作者掌握所研究领域的专业理论知识,具有一定的独立从事科学研究的工作能力。,0,1,1,0,1,1,0,1,0,0,0,0,0,0 +770,学术水平: 论文对配电网负荷预测问题从不同的预测方法上加以讨论,特别在稀疏化鲁棒算法上做出的一定的改进工作,充分达到了硕士学位论文的水平。 选题意义:选题的工程十分意义的明确,归纳总结的预测方法有实际应用价值。 论文创新点:有一定的算法改进意义上的创新性,符合硕士研究水平要求。 学科知识的掌握; 学科基础知识掌握的比较知识,应用恰当。 写作规范性和逻辑性:写作规范性较高,逻辑清晰明确,可读性较好。,0,1,0,0,1,0,0,0,0,0,0,1,1,0 +647,论文针对真空泵用高性能驱动电机的需求,开展具有宽转速运行范围的永磁辅助式同步磁阻电机的设计研究,选题具有用重要的理论意义和实用价值。 论文首先在真空泵用永磁辅助式同步磁阻电动机的电磁设计方案的研究基础上,开展了定子绕组方式、电机极对数以及磁障结构参数的设计研究,构建了电机损耗模型,并结合冷却水道的优化设计,验证了电机的高效运行特性,最后结合机械强度的设计与校核,确定了电机转子磁障桥壁的厚度。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +2319,本文通过对广西产广藿香、迷迭香和鸡蛋花中提取的精油的抗氧化作用及对当地常见蚊虫致倦库蚊的驱避和熏蒸作用进行研究,为植物源驱避剂、杀虫剂和天然抗氧化产品的研发提供了理论依据,同时促进了广藿香、迷迭香和鸡蛋花资源的开发利用,具有一定的经济和社会价值。论文选题有重要理论和实际意义,研究结果具有重要的学术参考价值。论文结构合理,思路清晰,逻辑性强,参考的文献资料与论文内容结合紧密,研究结果具有一定的创新性。但仍存在以下不足:1、研究结果仅停留在使用物理、化学等分析手段,理论深度不够。若是能够增加理论或者机理方面的探讨,论文会更加出色。2、作者对三种植物精油进行了相应的性能表征,但是对于部分表征结果的讨论不够深入,仅停留在描述实验结果层面。3、建议作者将相关内容进一步整合,可将相关章节进行合并,例如第三、四、五章。4、目录8.2的格式不对。总之,论文反映出作者阅读了大量相关文献,能够掌握专业基础理论和研究课题方面的知识,能利用所学知识解决研究课题中的实际问题,具有一定的科研工作能力和动手能力。论文实验方案合理,实验方法可行,语言表达准确,图表规范,数据可信。本人认为该论文达到了硕士学位论文授予水平,修改后可申请答辩。,0,0,1,0,1,0,-1,0,1,0,0,1,0,0 +16,《箍筋约束自密实再生混凝土轴压力学性能及本构关系研究》评审意见 该硕士论文工作的两个主要前提是再生混凝土、自密实浇筑,因此论文工作主要包括:(1)进行了31个箍筋约束混凝土试件与6个素混凝土试件的轴心受压试验,分析了体积配箍率、混凝土种类、混凝土强度、箍筋强度、箍筋形式和箍筋直径等因素对力学性能的影响;(2)根据试验结果分析,并结合国内外研究成果,提出了箍筋约束自密实再生混凝土轴心受压本构模型。 该论文总体表现为:选题目的与研究内容具有较好实用性,所采用的理论模型均为较为成熟的已有成果。论文总体结构合理,试验设计、试验数据分析总体能够体现研究者的研究目的。 以下表述文章中的相关问题: 1、文中摘要的编写缺乏重点; 2、文中第一章内容中:(1)关于国内外研究现状仅仅只是罗列了已有的部分研究成果,但其研究方法或结论中有何不足、工程应用中所存在什么问题等缺乏综合提炼,使得其1.4节中所给出“研究内容”缺乏相应的合理性与必要性;(2)应针对研究内容,补充相应的“技术路线”; 3、文中表2.3所给出的试验材料参数应区别说明,混凝土的不同密实方法的影响及其(第三章中)相应试验结果分析; 3、文中针对图3.15~3.19解释其延性系数小于3.0的原因; 4、文中第四章应重点说明本项试验的两个主要前提对其本构模型的影响(具体应体现在式4.54、式4.55、式4.62等)。 二〇一九年四月二十九日,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2535,该硕士论文以原糖回溶糖浆为研究对象,研究并发展了4种原糖回溶糖浆脱色新方法,在单因素试验的基础上,通过正交试验对工艺条件进行了优化,并对相关的机理进行了探讨。主要研究内容及结果如下:1、通过单因素试验考察了锌离子浓度等各种因素对30%质量分数原糖回溶糖浆脱色率的影响,再通过正交试验优化了工艺条件,在最优工艺条件下,对30%原糖回溶糖浆的脱色率达到82.5%。硫酸锌-磷酸-石灰乳体系对糖浆的脱色机理主要为吸附或包埋。2、采用复分解沉淀法制备了新生硅酸镁并进行了表征。探讨了硅酸镁用量、吸附温度等对原糖回溶糖浆脱色性能的影响,并对新生硅酸镁的脱色机理进行了分析;3、制备了多孔氧化镁,并对其进行了表征。考查了多孔氧化镁用量、体系pH值等因素对多孔氧化镁吸附性能的影响。吸附机理分析结果表明,多孔氧化镁对原糖回溶糖浆中色素等杂质的吸附过程符合Lagergren准二级动力学方程,等温吸附过程为多分子层吸附,符合Frendlich等温吸附方程。4、采用水热合成法合成了金属有机骨架材料MOF-808,并进行了表征,分别考察了吸附温度、MOF-808用量等因素对糖回溶糖浆脱色率的影响,并设计正交试验对工艺条件进行了优化。对吸附过程机理进行了研究,结果表明,MOF-808吸附动力学符合颗粒内扩散方程,扩散速率常数为0.0278min-1。通过论文可以看出,该生查阅了大量文献,对原糖回溶糖浆脱色方法的研究现状、发展水平和趋势有比较全面的了解,具有较强的科研工作的能力。该论文内容恰当,数据翔实,图表规范,分析合理,结论正确,已达到硕士论文水平,同意进行硕士学位答辩。论文不足及建议:1、注意论文排版,文中尽量不留空白处;文中公式、表格等按规范格式书写,表不要分页排版;2、特别注意参考文献按硕士论文格式要求进行修改,并增加近三年文献的引用;3、仔细检查全文的小书写错误并订正。,0,0,-1,1,0,0,-1,0,1,0,0,0,0,0 +1756,论文研究了电氢汽车充放能协调调度的问题,考虑了多能源的互补特性以及市场价格因素,从博弈的角度出发开展优化调度的研究,在氢能快速发展和能源互联网的背景下,具有一定的研究价值和意义,论文整体结构合理,撰写较规范,内容逻辑性强,具有一定的创新性,证明作者具备了独立从事科研工作的基本素质和能力,同意其参加答辩。,0,0,0,0,0,1,1,0,1,0,0,1,0,0 +1397,该论文主要研究了金属有机骨架对模拟油中苯并噻分的吸附脱硫性能,采用微波辅助合成和混配体法功了具有多级孔结构的金属机骨架。采用XRD 、比表面积和孔径分析仪、热重分析仪 等表征手段对材料进行,考察不同混合连接子比例( 等表征手段对材料进行,考察不同混合连接子比例对形成多级孔金属有机骨架的影响。通过静态吸 附和动态实验的进行吸脱硫性能评价,重点考察多级孔 OH -HKUST HKUST HKUST-1和 NH 2-HKUS T-1金属有机骨架对吸附脱硫性能的影响。 整体而言,该论文针对高效脱硫吸附剂的制备与性能研究工作量充实,实验手段和数据较为充分,论文具有一定的学术水平,已基本达到硕士学位论文要求。,0,0,0,1,0,0,0,0,0,0,1,0,0,0 +1332,该论文选题具有较强的的理论意义和实用价值,对我国水泥煅烧技术的发展具有一定意义。本文对于国内外回转窑煅烧技术的研究现状和技术发展趋势论述不够充分。论文建立了建立了回转窑机理模型、回转窑温度软测量模型和贝叶斯网络诊断模型,设计了一种模糊PID 控制器对烧成带温度进行控制,具有一定的创新性和理论意义。具有较好的专业理论知识和一定的科研能力。论文各章节之间的逻辑关系不是很清晰,论文规范性有待提高,文中存在个别错别字和格式不规范情况。,0,0,0,0,1,1,-1,-1,-1,0,0,1,0,0 +98,"本文采用激光熔化沉积技术在35CrMo低合金钢基材表面制备一种铁素体不锈钢沉积层,研究不同工艺参数对其激光熔化单道沉积层的影响以及添加合金元素Mo对其组织及性能的影响,期望制备一种既耐磨又耐蚀的高性能不锈钢,该选题具有重要的理论意义和实用价值。 作者阅读了本领域的主要文献资料,综述了相关研究现状,提出了自己的研究内容,表明作者熟悉本领域的国内外研究现状和学术动态,综述能力较强,主攻方向明确,研究目标清晰。 本文采用光学金相、X 射线衍射、扫描电子显微镜与显微硬度、摩擦磨损试验、电化学测试试验、空泡腐蚀等多种试验手段,系统研究了35CrMo基材表面激光熔化沉积 FeCrNiBSiMox 不锈钢的组织及性能,并试验了添加合金元素Mo对激光熔化沉积不锈钢组织及性能的影响规律,得到以下创新性结论: (1)激光熔化沉积FeCrNiBSiMox不锈钢的优化工艺参数是激光功率2200W,扫描速度8mm/s,光斑直径4mm,送粉率7g/min,搭接率50%,载气流量400-550L/h。 (2)在优化工艺参数下激光熔化沉积制备不同 Mo含量不锈钢样品,沉积态样品主要由α-Fe,(Cr, Fe)7C3 两相组成,随着Mo元素的添加,相组成没有发生变化,但组织发生明显的细化。 (3)激光熔化沉积 FeCrNiBSiMox不锈钢随着Mo元素含量的增加,磨损体积与磨损率均降低,耐磨性有显著提高。添加Mo元素后,在3.5%NaCl溶液中耐空泡腐蚀和耐电化学腐蚀性能也有所提高,其中Mo含量为1.5%的激光熔化沉积不锈钢样品空蚀失重率为 0.12mg/min,腐蚀电流密度最小为 1.28×10-7 Acm-2,表现出最佳的耐腐蚀性能。 总之,论文选题适当,研究手段先进,实验数据可靠,研究结果可用,表明作者已具备一定的基础理论、专门知识以及从事科学研究工作的能力。论文写作规范,逻辑性强,文字通顺,表达清晰,分析合理,材料真实,表明作者具备一定的论文写作能力。 综上所述,本论文是一篇较优秀的硕士学位论文。已达到了硕士专业学位论文水平要求,同意仔细修改后组织论文答辩,并建议授予硕士学位。",0,1,0,0,0,0,0,1,1,0,0,0,0,0 +2590,量子点(QDs)具有合成简易、发光效率高、光谱可调控、稳定性高等特点,被广泛用于生物识别、光学成像、光催化和太阳能电池等领域。氧化锌量子点(ZnOQDs)除上述特点外,还具有生物相容性好、制备成本较低、应用广泛等优。该论文通过溶胶凝胶法合成了荧光性能稳定的ZnOQDs,详细表征了其形貌及光物理性质,并进一步通过封端等处理,设计合成了多种新型ZnOQDs体系,实现了子Cu2+、Hg2+、Cr3+的荧光分析检测。论文撰写基本规范,数据可靠,基本符合硕士学位论文的基本要求,但是论文存在大量实验细节问题,仍然需要仔细核查并修改,建议仔细修改以后进行答辩。具体问题如下:1.图2-4中红线显示为发射谱图,并且加入了10μMCu2+,图注却表明只是ZnO-NH2QDs的荧光发射光谱,请检查统一。2.所有检测中,量子点的用量(如物质量浓度或者质量浓度)应该说明。3.图2-9(a)和(b)中,应该测量只有量子点ZnO-NH2QDs的荧光强度以及ZnO-NH2QDs+L-Met的荧光情况。4.2.3.3部分,应该增加ZnO-NH2QDs加入一定浓度的Cu2+后,在逐渐加入L-Met后,荧光光谱恢复情况以及线性情况。5.ZnO-NH2QDs与Cu2+以及L-Met反应的具体机理?以及反应的比例情况?图2.6显示,加入25μMCu2+,猝灭值达到0.29,而继续再加入1μM的L-Met,荧光就可以恢复到0.94,Cu2+和L-Met是否是1:1反应?该部分应该详细探究清楚。6.图3-4中,紫红线显示为发射,并且加入了10nMHg2+,图注却表明只是PEG-ZnO-NH2QDs的荧光发射光谱,请检查统一。此外,图中量子点应为“PEG-ZnO-NH2QDs”,不应该漏掉“PEG”。7.图3-6显示,PEG-ZnO-NH2QDs加入10nMHg2+前后,荧光强度约从1.26x106降为0.7x106,而在图3-7a中,加入50nMHg2+后,荧光强度才约降为0.7x106,同理,在图3-8中,加入10nMHg2+后,荧光强度仍然约为1.24x106,请检查数据统一性。8.在图3-9中,应该测量只有量子点PEG-ZnO-NH2QDs的荧光强度以及PEG-ZnO-NH2QDs+I-的荧光情况。9.图4-1和图4-3中量子点PEG-ZnO-NH2QDs浓度是否一致?为何强度一个约为1.26x106,另一个约为1.7x106?此外,图4-1中,紫红色线代表的发射光谱是否应该是没有加入Cr3+?如果是加入了10μMCr3+,那么图4-3中,相同条件下,为何荧光约为0.75x106?同理4-4a中,加入50μMCr3+后,荧光强度下降为0.75x106,4-5中,加入10μMCr3+后,荧光强度约为1.24x106,请一定注意所有光谱数据的一致性。10.在图4-6中,应该测量只有量子点PEG-ZnO-NH2QDs的荧光强度以及PEG-ZnO-NH2QDs+NH3·H2O的荧光情况。11.第三章和第四章,在已经猝灭的体系中,加入I-以及NH3·H2O后荧光生成情况(光谱和线性等)也应该详细检测探究。,0,0,0,0,0,0,1,0,0,0,0,0,0,0 +276,该论文主要工作如下:1、针对常规PID 在曝气系统溶解氧控制中存在的不足,研究内模PID 控制方法,将其应用到串级结构主回路中,实现对溶解氧浓度的控制。2、为了进一步提高内模PID 的自适应能力,引入模糊控制策略,实现对内模控制中滤波参数a 的在线调节。3、在一自由度基础上又引入了另一个内模控制器,构成二自由度内模PID 控制结构。通过调节二自由度内模控制器参变量来实现对系统目标跟踪性能和抗干扰性能的优化。选题来源于实践,有一定的实际使用价值;归纳总结全面,在内膜PID的自适应和调节二自由度内膜控制器方面具有新颖性。 所采用的研究方法具有一定的实用性,论文写作规范,图表清晰、 结构合理、层次分明、文字通顺,说明该生具有扎实的理论基础和较强科研能力,论文达到专业硕士的水准,同意答辩。,0,1,0,0,1,1,1,1,0,0,0,1,0,0 +1102,本论文在分析消费者品牌偏好的策略性购买行为基础上构建了服装品牌商的动态定价决策模型,该选题研究角度新颖,具有一定的研究价值。但文章研究的场景是基于寡头垄断情况下的服装品牌商定价决策,且假设消费者品牌偏好无替代性品牌的情况下得出的研究结论,这些研究场景与现实情况有一定出入。服装市场早已是一种完全自由竞争的市场,由于替代品牌众多,服装商的价格变动会导致消费者品牌购买迁移。因此,在一种理想状态下得出的研究结论在现实场景中有一定应用局限性,但作者的研究仍具有一定理论创新,值得肯定。总体上看,文章结构比较合理,层次比较清晰,研究方法可行,研究思路严谨,文章逻辑性较强,写作比较规范,达到了硕士学位论文要求的水准,同意该生参加论文答辩。,0,1,0,0,0,0,1,0,1,1,0,1,0,0 +2268,本论文是一篇翻译实践报告。原作为科技文本,翻译此文具有科技及经济价值。作者借助卡特福德的翻译理论,指导翻译实践,并撰写实践报告。在卡特福德层次转换的理论基础上,作者分析了汉语的某些语法意义如何用英语的词语翻译,以及汉语的某些词汇意义如何用英语的语法方法来表达。作者也从范畴转换角度分析了结构转换、词性转换、单位转换。整篇论文结构完整紧凑,逻辑严密,术语定义准确,理论及实践结合紧密。论文语言流畅清晰,格式美观,资料详实,体现出较高的理论能力、翻译能力和英语表达能力。论文有部分失误,需要改正提高:1.参考文献中的著作文献,无论英语还是汉语条目,都应有出版地,但论文中某些著作条目有出版地,一些著作条目的出版地却缺失了。2.论文中有少量英语表达错误。例如,“5.1Summary”中,“sectionsfromsixtonineinchapterone”的大小写失误。从总体上看,本论文达到了很高的水平。,0,1,0,1,1,1,1,1,0,0,0,0,0,0 +2452,"该论文选材于美国一本科普杂志。论文分析了翻译文本所具有的综合复杂特点,并运用生态翻译学中的“三维”转换理论,试图探讨翻译中遇到的实际案例,提出:在具体的翻译实践活动中,译者要考虑译入语环境,灵活选择翻译策略和翻译方法。论文框架比较合理,思路清晰,但文献梳理深度和广度都很不够,浮于表层,建议加强相关文献梳理,同时加强理论与翻译实践的结合,避免“两张皮”现象,另外,翻译腔比较严重,中式英语表达也不少,需要认真修改。",0,0,-1,0,0,0,0,-1,0,0,0,0,0,0 +2110,由于特高压直流输电系统雷害会导致直流系统控制保护系统发生动作,引起直流输电系统闭锁,严重威胁电网设备的安全运行,论文针对某±800kV特高压直流输电系统,研究其雷电过电压及其防护,选题具有较好的工程价值。论文±800kV 直流输电工程建立了雷电侵入波下换流站交流侧、 直流侧的电磁暂态模型,利用不同方法对换流站交流侧和直流侧线路遭受的绕击雷和反击雷进行全面计算和分析,并对换流站交直流侧不同设备配置下的防雷效果进行研究。 论文撰写作工作量充实,在选题上实用性较强,在工程中有一定的参考和应用价值。从论文的研究方法和技术线路可见,作者具有坚实的理论基础和解决本专业问题的能力。,0,1,0,1,1,1,0,0,0,0,0,0,0,0 +645,论文针对蓄热装置绝缘问题,对装置进行了绝缘优化设计。 论文选题有较大实用价值;阅读资料较广泛,掌握了相关的国内外研究动态,研究方向明确。 研究成果有一定实用价值,通过电磁场仿真计算和实验,对蓄热装置绝缘做了有效的工作。 论文写作条理清楚。从文中可以看出:笔者有一定的从事科学研究的能力,掌握了课题相关的专业理论知识。,0,1,1,0,1,0,1,0,0,0,0,1,0,0 +926,科学测度区域工业生态效率并探讨其时空格局的发展变化对加快区域经济高质量发展、协调工业经济与生态环境发展具有重要意义。东北地区因其老工业基地的缘故,更具有研究的典型性,作者可以在进一步凝练一下其典型性,分析研究东北地区对其他地区的影响。该论文相较之前版本,已经进行了较大幅度的修改,针对提出的问题和建议,基本上完成了修改,论文有了较大的提升,在方法使用、结果分析等方面较为合理,整体上达到了硕士生毕业论文的要求。,0,0,0,0,0,0,0,0,0,1,1,0,0,0 +1430,该同学学位论文针对风电、火电机组组合优化问题进行了初步研究,在参考有关文献的基础上,建立了风电、火电机组组合优化数学模型,且先后采用双重离子群算法及广义Benders算法两种不同算法对案例进行了寻优。总体来说,论文选题紧扣当前风、光新能源发电技术重大技术需求,意义重大,论文工作量也达到硕士论文的要求,研究方法也基本合理,论文撰写基本达到要求。,0,1,0,1,0,0,1,0,0,1,0,0,0,0 +2906,论文针对位标器异形线圈绕制存在的问题,设计了专用绕线机控制系统,包括绕排线系统、张力控制系统和电子控制系统。提出了基于绕线角度的排线控制算法和基于模糊PID控制的张力控制算法,并通过硬件系统和软件系统的设计进行了样机测试,实现了部分绕线的自动化,提高线圈绕制质量。论文体现了作者比较扎实的理论基础和较强的动手能力。通过研究生阶段的学习,掌握了分析问题、解决问题、总结问题的能力,工作量饱满,达到了硕士研究生毕业论文的要求,同意答辩。,0,0,0,1,1,0,0,0,0,0,0,0,0,0 +794,与本文类似的学位论文选题较多,从这个意义上讲重复性研究现象较为明显,从而表明该文选题意义和价值受到影响。文章占用了一定的中外文文献资料,表明作者掌握了一定的学科知识,作者在概述网络环境下商业诋毁行为含义、特征和情形基础上,分析了我国的相关法律规制的现状和问题,阐述了德国、日本、瑞士三国相关制度及其对我国的借鉴,最后从完善认定标准、增强处罚力度、降低诉讼风险、强化监督执行作用等方面提出了自己的一些观点或建议,有一定的参考价值,全文逻辑结构基本合理,也有一定的论证,表述较为清楚。,0,-1,0,0,1,0,0,1,1,0,0,0,0,0 +1541,论文“180t底吹钢包三相流界面行为及混合现象的数值模拟”以某厂180t底吹钢包为研究对象,以提高其钢液搅拌效果为目标,对钢包底部双透气砖位置的影响进行了仿真分析,分别分析了双透气砖中心夹角和距中心的距离对搅拌均匀性的影响。得出了“双透气砖的中心距离为0.6R、夹角为135°时,钢包内循环流明显,速度分布更加均匀,“死区”比例最低,钢-渣界面形成的渣眼尺寸和混匀时间数值均较小”等搅拌效果最佳的结论。表明作者掌握了本学科的基本理论和专门知识。,0,0,0,0,1,1,0,0,0,0,0,0,0,0 +2957,为实现装载机工作过程的节能降耗,开展装载机工作装置作业运动轨迹控制研究,对实现装载机的自主铲装作业智能化有着重要的理论价值与现实意义。论文通过对装载机工作装置建立动力学模型,开展铲装作业的运动学、动力学研究,揭示铲装作业阻力同机构中驱动力的力学关系,并进行装载机铲装作业轨迹解算,运用前馈-PID反馈控制方法实现装载机的作业运动轨迹控制,为控制和减少作业阻力从而实现装载机节能增效提供了控制策略的途径。研究方案可行,研究方法得当,论文撰写思路清楚、观点明确,研究结论具有一定的应用价值。论文达到了硕士学位论文的水平,建议进行硕士学位论文答辩。论文尚存在以下几个问题,供作者修改参考:(1)摘要部分:序号1、2、3、4建议增加(),以便与一级、二级标题明显区分;文中“1.开展装载机工作装置运动学研究获取机构的运动数据信息”,建议改为“(1)开展装载机工作装置运动学研究,获取机构的运动数据信息”;(2)P5参考文献[32]、[33]、[34]作者前面的工作单位“吉林大学”、“浙江大学”等,建议去掉,使整篇文档撰写风格保持一致;(3)P7-P8、P11、P47、P64-P66、P71、P72中的序号1、2、3、4建议增加(),目的是与一级、二级标题明显区分;(4)P16公式(2-20),P17公式(2-24),P18公式(2-34),P19公式(2-46),P50公式(4-2)、(4-3),P52公式(4-8),各公式后面的符号说明部分,与正文其它部分保持相同的撰写风格,格式统一;(5)页面底部留空白偏大,如P66、P5,第5章的P9,;(6)参考文献部分:缺少页码、或卷期等信息,如:[39]、[62]、[63]、[64];研究现状分析部分引用的参考文献[19]-[53],近5年尤其是近3年内的参考文献比例偏低。,0,1,-1,0,0,0,-1,-1,1,1,1,0,0,0 +239,"该论文明确研究背景, 查阅了国内外PTA污水回用反渗透浓水的处理方法, 臭氧催化氧化技术的优点以及臭氧催化氧化催化剂制备等相关理论和应用现状。 该课题选择高岭土作为催化剂的载体,分别浸渍不同种类的盐溶液,制备而成催化剂, 分别使用单纯臭氧、单一金属氧化物催化剂和复合金属催化剂,进行水处理实验,选择出降解效果的优劣。通过软件对设计的新型变径反应器进行模拟,考察了在扩径段不同结构尺寸的条件下,反应器内颗粒浓度、气体分布以及气固接触情况并进行了分析,验证了新型变径反应器的可行性。 通过实际加工制作反应器。在最优实验条件下,同时在变径反应器与等径反应器内,使用三种复合催化剂对模拟浓水进行臭氧的催化氧化实验,得到了综合指标最优的锰铜复合催化剂。 该论文能够理论联系实际,开展了三种复合催化剂对模拟浓水进行臭氧的催化氧化实验,得到在变径反应器中,综合指标最优的复合催化剂.实验设计具有一定的创新性,研究结果具有一定的理论价值和和应用价值。 该论文利用计算手段,对课题进行了研究,表明论文作者掌握了本专业坚实而宽广的理论知识,具备了查阅文献资料的能力,具有较为可靠的结论,表明作者能独立地开展相关的科研工作。 论文结构合理,书写较规范,逻辑结构清晰,文字表达较流畅,建议作为硕士学位论文安排答辩。",0,0,1,0,1,1,1,1,1,1,1,1,0,0 +612,论文针对分布式光纤测温系统的温度补偿问题进行了研究。该课题具有较好的实用价值,作者的工作也是在理论探索基础上侧重工程实现。论文对国内外分布式光纤测温的系列产品做了分析,明确了课题的难点。作者提出的用径向基函数神经网络进行温度补偿的方法,具有一定的理论价值,也是本课题最主要的创新点。从实验效果看,神经网络方法也是比较令人满意的。论文思路清晰,行文流畅。 论文达到了硕士水平,可以答辩。,0,1,0,0,0,0,1,1,0,0,0,0,0,0 +2398,本文作者提出了无监督条件下基于深度卷积神经网络的跨模态检索模型,并将提出的新模型在不同的数据集上与其他基线方法进行了性能对比,且深入地研究卷积神经网络对URCNN模型的影响。该论文选题新颖、体现出一定创新,并具有实际意义,作者写作思路明确,工作量饱满,结合具体实验结果论证准确。该论文达到了毕业论文的基本要求,同意其参加毕业论文答辩。不足之处:1.英文摘要中有些语法不准确,需核对;2.第17页“UnsupervisedCross-ModalRetrievalBasedonDeepConvolutionalNeuralNetworks”重复出现,第二次用缩写即可;3.第24,28,29,37页...页面下方空白过多,需做排版调整;4.参考文献4,11,30,43等缺少期刊的卷期页信息。,0,1,0,1,0,0,-1,0,0,0,0,0,0,0 +2627,论文对当地老年群体的社区参与现状及动力情况进行了较为翔实的描述,并应用了社会工作的专业方法对如何提升老年居民的参与动力进行了实践与分析,对于如何积极发挥老年群体在老年宜居社区建设中的可行路径设计有着较好的现实意义。论文能够选取较为恰当的理论与方法加以研究,但在具体应用时,存在着以下偏差,建议对照完成修改:(1)详细描述抽样方法与抽样框,而不是只用一句随机抽样加以带过。(2)社区参与动力量表所列三个维度及总共10个题目,是否有前人研究做支撑,其在Y社区应用后,相应的信效度如何,要有对应的检验与分析。(3)论文结论部分,要总结出图4-3所列维度与参与动力的三个维度(积极性、主动性、持续性)具有何种关系,以提升研究的学理价值。(4)增加关于3A、5A老年宜居社区评审流程与评审标准的详细介绍,阐述获评该称号对于其中的居民尤其是老年群体意味着什么。(5)小组成员特征中的社区参与频率低,此处社区参与频率高低程度的分类标准与依据要说清楚,尤其是讲清楚Y社区一年举办多少活动,居民平均参与次数如何。(6)注意表格呈现的规范,比如表3-3,变量与属性要分成不同的列加以呈现。此外行文中有错别字与空格不足等现象,注意加以修改。如果可以完成上述5个方面的修改,尤其是将前4个方面做到位,能够达到优秀硕士论文水平。,0,0,0,0,0,0,-1,0,-1,-1,-1,0,0,0 +2063,文章选题有一定的工程意义和理论意义,文献综述基本厘清国内外现状,但对国内外现状未有评述,因此也就没有与本文的研究有机结合起来阐述研究的意义。文章有明确的研究目标和内容,作者围绕研究任务展开了研究工作,取得了预期成果,可以看出,作者对专业知识的掌握较好,具有独立从事科学研究的工作能力。文章格式较规范,文字表达基本清楚。不足之处是对研究结果的机理分析不够深入。,0,1,0,0,1,1,1,1,0,0,0,0,0,0 +245,该论文通过试验方法研究了电磁淘洗机的关键工艺参数对分选效率的影响,并对影响规律进行了分析。选题具有工程应用价值和较好的研究意义。国内外研究现状调研较为深入,研究思路清晰,方法可行。工作量满足要求,论文表明该生已初步掌握本学科相关知识,研究结论对实际工程应用具有很好的参考价值。论文写作较规范,文章有几处需要确认修改。,0,1,1,1,1,1,1,0,1,1,1,0,0,0 +3014,在移动互联网时代,网络直播走进千家万户。网络直播产业除了具有互联网的高技术、快发展等特性以外,还具有用户的粘性不均、用户选择场景多样化等一系列新型移动互联网的特点。在其蓬勃发展的同时,也吸引了资本市场的广泛关注,互联网直播企业的投资、融资和并购也日趋活跃。因此,如何在考虑网络直播企业特性的基础上对其进行准确合理的价值评估就尤显重要,既可以从理论上丰富此类企业的价值评估模式,也可以提供实践指导。文章占有资料丰富,综述还算全面条理,述评贴切,主要运用模型构筑和案例应用的方法,获得了尚算丰富的研究结论,达到了预期的研究成果,反映作者基本,掌握了专业基础理论,并能在指导教师指导下从事科学研究工作。文章方法运用较合理,结论、观点较明确,提出了对解决实际问题具有一定参考价值的新见解,工作量适中,达到了硕士学位论文的工作量要求。论文公式符号的使用恰当。1、要对论文所使用的关键词比如企业价值、用户价值等的内涵与外延作出清晰严谨的界定。2、16页用户价值的创造机制阐述不清晰。16页和18页用户价值的界定不统一。按照18页的界定,用户价值是用户的主观感受,这种界定和户价值的5个方面相矛盾。建议对这些内容作出修改。3、务分析的内容非常突兀,且并不能说明为什么选择案例企业,和文章前后内容之间关联不大。4、建议要把改进的国泰君安模型的调整机理解释清楚,注意考虑因素的不重复和不交叉。比如:目前此改进模型依托的基础模型已经是依靠用户价值的互联网企业的价值评估而不是仅仅是对企业内部的直播业务价值的评估,为什么还要增加业务调整系数?,0,0,0,0,1,0,0,0,-1,1,1,1,0,0 +1044,1.前期资料调研部分与本论文相关的资料较少,建议进行详细修改。 2.无人机前期拍摄相关参数未明确说明,如像素分辨率等,未给出具有说服力的检测方法,建议对其尺寸及分辨率进行详细说明。 3.图4-3中数据采集图像处理说明不明确,需要进行详细解释说明。 4.图像采集相关计算方法并不清楚,需要进行详细说明。,0,0,-1,0,0,0,0,0,0,-1,0,0,0,0 +320,该文针对某汽车公司当前排产流程及主要存在的问题,研究了公司生产的精益化排产问题,论文的选题具有较好应用价值,论文中运用基因遗传算法建立排产模型,解决排产响应市场需求变化的问题,运用 ABC 分类法与插入排序相结合的方法对订单分类,并结合各车间排序限制条件进行排序,寻求最优排序方法,并对物料拉动系统进行了设计,论文具有一定创意性,体现了作者对相关学科知识具有较好的掌握,论文写作规范,用语比较准确,逻辑性强。,0,1,0,0,1,0,1,1,1,0,0,1,0,0 +2634,论文对装配式型钢再生混凝土结构进行研究,具有一定的研究意义。主要存在以下问题:1、摘要总结的研究结论,思维混乱,应该先是破坏形态,试验结果变化规律,。。。有限元,理论部分。2、英文摘要错误较多;3、这种结构形式不是作者首先提出的;4、已有研究不足,没有总结出该种结构真正存在的问题;5、研究现状中介绍没有逻辑关系和层次,试验,有限元,理论,再生混凝土构件没有介绍。介绍中没有进行对比总结分析。6、创新点中第一条不是创新点,其他两条需要进一步凝练;7、第二章,再生混凝土基本力学性能指标没有介绍,应力-硬币关系,弹模,泊松比等。试验结果只进行现象描述,没有分析具体的原因,缺少相关的力学性能指标的计算公式;8、第三章中材料性能和试验方案介绍可与第二章合并;9、应变片和位移计布置要进行编号,三维图作图效果较差,同时,结合平面图进行说明;10、应变看出对比分析,其他试验结果也没有对比分析;11、有限元参数分析较少,没有得出具体设计构造要求。,0,1,0,0,0,0,-1,0,-1,-1,-1,-1,-1,0 +1159,本文围绕Fe-B-Si-Nb-Cr 非晶合金变质对ZL401 合金的组织、耐腐蚀性、室温和高温强韧性的影响规律及机制进行研究,对Fe-B-Si-Nb-Cr 非晶合金成分进行了设计优化,研究了研究不同Cr 含量的Fe-B-Si-Nb-Cr 非晶合金孕育对ZL401 合金组织性能的影响,同时通过力学性能和电化学实验,对孕育处理后合金的室温和高温力学性能、耐腐性能进行了研究。本课题的开展具有较大的理论意义和实用价值。作者对本研究领域文献资料的掌握程度和评述较为全面,立题目的明确。此外,该研究工作的开展经过了大量的实验,研究工作量很大,获得的研究成果具有一定的创新性和理论价值。,0,1,1,1,0,0,0,0,0,0,0,1,0,0 +2980,"文中采用半数值半解析的方法对敷设碳纤维层多孔介质叠层梁的谐振特性进行研究,并通过优化层合梁的结构参数,达到减振的效果及提高结构的力学性能。研究方法较为科学,研究结果可为叠层结构在工程中的应用提供理论依据。文献调研较充分,论文结构严谨,层次较分明,图表使用较恰当,写作规范有欠缺,逻辑性强,重点较突出。写作部分个别细节需要进一步改进。论文表明作者具有一定的独立科研的能力,掌握了所研究领域的基本理论和分析方法,论文基本达到了硕士学位论文水平,同意其参加论文答辩,并建议授予硕士学位。学位论文存在问题、不足以及修改建议:1)在“1.2国内外研究现状”中,介绍前人工作中,格式有:“某某等[]”,“某某等人”,“某某[]等”,“某某[]等人”,写法需统一。2)在“1.2国内外研究现状”中,所综述的研究工作中,国外同行的工作调研不充分,且近期文献相对比较少。3)微分符号“d”需写为“正体”而非“斜体”,需全文正文及图中文字修改。此外,其他物理量正斜体,需仔细检查。4)表3-3、表3-5和表4-1等,流体动粘度“m2/s-1”应改为“m2/s”或“m2·s-1”。5)图4-1,左边截面上的轴力“N”的作用线应与杆件轴线重合。6)图2-1,图4-3、4-4、4-5、4-6等,个别字母字号太大,整体不协调,需修改。7)P41,“…对4-9式和4-10式…”应改为“…对(4-9)式和(4-10)式…”。8)P54,公式(5-1)中,单位应改为“正体”。9)P17,泰勒级数展开式“ex=I+x+…”,书写不正确,需查证修改。10)p26,“结合(3-7)式,对式(3-12)”可改为“结合式(3-7),对式(3-12)”或“结合(3-7)式,对(3-12)式”,此类问题应全文统一。11)p27,“3.2.1多孔介质梁控制方程”的下面一段,为两段对齐,此类,全文检查。12)p3-1,中第一列应该“居中对齐”或左对齐,此类问题全文统一。13)图3-2、图4-8等,图中的文字看不清楚。14)p35,“0.0002m2”中,数字与单位间有空格,而其他的没有。按规范来说,确应有空格,需全文统一。15)表5-4,确定为空表吗?16)全文中,标点符号的使用不具有统一性和规范性。尤其注意顿号“、”和逗号“,”的使用方法。此外,标点符号中英文混用的情况较多。",0,0,1,0,0,0,-1,0,1,1,1,0,0,0 +2887,"论文针对传统统计学习方法对不平衡小样本肺部X-Ray图像的类别不平衡、特征分布不平衡缺乏泛化能力的不足,分别采用大型迁移学习模型、多种图像增强方法、FocalLoss函数等方法强化模型对高维信息的表征能力、提升模型的泛化能力和模型的准确率,并开发COVID-19的智能诊断系统。论文理论与实际结合紧密,应用价值大。分析方法正确,逻辑合理,数据来源真实可靠,工作量饱满,排版质量较高,达到了硕士学位论文水平。论文存在问题:1.目录中出现两个4.6,请对照修改;2.论文使用较多的公式,难免会出现下标前后不一的问题,如2.3.2中i=1,2,...,n,应该是i=1,2,...,P;3.论文中局部存在表格跨页排版问题,如第33页的表4-2,建议将部分文字调整,将表格放到下一页。",0,0,0,1,0,0,-1,-1,0,0,0,0,0,0 +1816,论文以聚酰亚胺为前驱体,选取三种物质为掺杂剂,在平板支撑体上制备了支撑杂化炭膜。通过单组份和双组份气体测试了杂化炭膜的气体分离性能。考察了掺杂剂的含量、渗透温度和渗透压力对杂化炭膜的微观结构与气体分离性能的影响,获得了比较好的研究成果,对实际应用提供了依据。论文选题具有现实意义,综述全面,工作量较大,测试表征手段全面,数据详实,分析比较合理。论文写作符合写作规范。,0,1,1,1,0,0,1,0,1,0,1,0,0,0 +2278,本论文以磺化沥青为主要碳前驱体,构建一系列多孔碳材料,重点探究了储能应用特性与材料的形貌、孔道结构、电导率和有效比表面积之间的构效关系。论文选题具有先进性和创新性。研究工作系统、完整,亮点比较突出。论文工作量饱满,撰写较规范,对图表的描述和分析准确。论文作者具有较扎实的理论基础和较高的科研能力。论文工作达到研究生培养标准,建议直接答辩。论文不足之处如下:1.目录3.4和3.5中,将材料的电化学性能放在“结构表征”这个大标题下是否合适,应用性能测试和结构表征是两码事。结构表征的目的是为了解释或说明哪些因素、为什么会导致应用性能的优劣,从某种程度上说结构表征是为应用性能服务的。后面相关标题也存在类似问题。2.第21页,关于对SEM的描述中,单纯通过形貌对比即可预见FASP10-800的性能优良,这种写法值得商榷。反过来,依据性能的优劣来推断可能引起该性能差异的结构特征是什么,更合乎逻辑和有说服力。3.图3-5b,BET测试中所得孔径分布曲线,1nm以下的峰是如何得到的,1nm以下的微孔氮气是测不出来的。氮气测试时,一般在1.5nm以下就没有数据了。4.第23页,“根据SEM图像、N2吸脱附等温线和电化学性能的结果,优化的SP比例为10%,”,这句话存在逻辑问题,sp的优化比例只能是由电化学性能测试的结果来决定,而不是sem和bet测试结果,这两者的测试结果只能用来推断或解释可能的导致性能优劣的原因或机理。5.图3-7cd与图3-4cd相同,同一章内容最好不要出现相同的图多次出现,首次出现后直接引用即可。同时,关于对图3-4cd与图3-7cd的文字描述前后两部分完全相同。类似的,相同内容在文中重复出现的情况多次出现。另外,前面已经先介绍过复合后材料配比优化,后面才介绍复合前后的情况对比,行文逻辑上可以适当调整。6.第27页,“因此,FASP10-800的电导率为21Sm-1,低于FA-800(71Sm-1)”这句话不应该是结论,而应该是实测电导率的结果对比,然后用ID/IG值来解释原因。而非反过来。,0,1,0,1,1,1,1,-1,1,0,0,0,0,0 +91,本论文主要研究了高强铝合金表面激光处理后的组织性能,特别是表面抗腐蚀性。作者围绕激光表面处理代替 RRA 处理中的回归部分对组织及耐蚀性影响进行了较深入的研究,得出激光处理能提高铝合金抗腐蚀性能的具体机制。 论文选题具有较大的工程意义和理论意义。论文的创新之处在于:针对激光对合金表面的快速加热,解决了传统抗腐蚀热处理达不到的综合提高高强铝合金本体性能和表面性能的目的。 论文研究思路正确,逻辑清晰,写作规范。基于论文对实验分析和得到的有价值的结果可以判断出作者已经掌握了材料学的基本知识,并能自如地运用其基本原理。,0,1,0,0,1,1,1,0,1,0,0,1,0,0 +904,该论文关注幼儿自发音乐活动,从支持体验、支持表现和支持创造三个维度进行分析,通过访谈和观察,揭示现状,同时提出改进策略。论文选题符合人才培养目标,具有一定的现实指导意义。研究综述相对全面,系统,问题提出较为合理,结论可靠,策略可行。但是采用访谈法作为主要方法,是否能如实反应现状,且2位教师是否具有代表性,语料收集是否充足,语料编码及观点得出是否有依据,均需要进行进一步考虑。综合来看,论文有一定的提升,文字表达更为流畅,结构更为清晰。,0,1,1,0,0,0,0,1,1,0,1,0,0,0 +2305,本文基于收益分成法,构建了制造业上市公司高管人力资本价值评估模型。实证研究表明,该模型对于评估制造业上市公司高管人力资本的价值具有一定的参考作用。论文层次结构清晰,语言精练,格式规范。其主要不足之处在于,影响高管人力资本价值的相关指标选取不够完善;对于其评估结果的利用或运用讨论不够全面。此外,关于本文构建的制造业上市公司高管人力资本价值评估模型能否运用于其他行业上市公司,本文未做进一步探讨,这使其成果的推广受到一定的局限。,0,0,0,0,0,0,1,1,0,-1,0,1,0,0 +155,本文以用于乳化油脱水的 DHY-730碟式分离机为研究对象,具有一定的理论意义和实用价值,主要做了以下工作: 通过对分离机碟片间流体两相流运动分析,建立了分离机碟片间流体运动的数学模型,从而揭示了两相流在分离机碟片间的运动规律。 对碟式分离机关键结构进行了优化设计。 利用有限元法对转鼓主要结构件进行了静力学分析,利用模态叠加法对转鼓组件进行了动力学特性分析。 对碟片式分离机中的碟片进行了Ti-Si-C+ SiO2复合膜层处理。 作者查阅了部分国内外相关文献资料,初步具有利用文献分析的能力,论文写作基本规范,概念清晰,结构基本合理,基本达到硕士学位论文的水平要求,修改后同意进行硕士学位论文答辩。,0,1,1,0,0,0,1,0,1,0,0,0,0,0 +1664,论文设计并实现了一种基于区块链的云数据完整性审计系统,选题具有重要的工程应用价值。论文在分析比较完整性审计的传统方法以及部分基于区块链的方法的基础上,提出了完整性审计方案,实验结果表明所提方案具有借鉴性。论文完成了下列工作: 1、结合智能合约和区块链技术,提出了基于区块链的云数据完整性审计方案; 2、方案中考虑了安全性问题; 3、方案中考虑了仲裁问题。 论文写作认真、条理清楚、图表规范、工作量饱满,表明作者掌握了本学科的基本理论和基本方法,满足硕士论文的答辩要求,同意答辩。,0,1,0,1,1,1,0,0,1,0,0,0,0,0 +1618,论文基于财务共享服务和绩效评价的相关概念与理论,以综合性酒店旅游产业下的财务共享服务中心为研究对象,基于3E原则,同时研究了XC集团财务共享服务中心目标定位要求。通过筛选和分析,建立了包括成本维度、效率维度、质量维度和发展维度的绩效评估系统,对XC集团财务共享服务中心绩效评价的发展提出了保障措施。论文选题具有一定的理论意义和实践价值,论点较明确,逻辑比较清晰,论文工作量较饱满,框架结构较合理。反映作者具有一定的发现问题和解决问题能力,论文体现出作者掌握了本学科较坚实的基础理论和系统的专门知识。,0,1,0,1,1,1,0,0,1,0,0,0,0,0 +2204,《〈C5发动机控制系统〉(节选)指令型无主句英译实践报告》原文为某汽车公司的维修手册《C5发动机控制系统》,基于彼得·纽马克的交际翻译理论,结合特定读者群这一影响译文选择的重要因素,探讨了指令型无主句的英译方法。作者指出:可以将强调指令本身的直接指令型无主句译为祈使句,将强调目的的直接指令型无主句用不定式表示;根据说话的意图以及强调的是句子宾语,还是建议,或者是动作的承受者,又或者是强调事物的存在,可以分别将间接指令型无主句译为被动句、“itis+形容词+to”句型、增加主语句和therebe句型等。论文选题有一定的现实意义,立论正确,论据较为充分,论证较为充分,文献较为翔实,结论较为自然。不足之处在于:第一,有结论无引言。虽然是翻译实践报告,引言也不是可有可无的。建议引言和任务描述均独立成一章。前者阐明选题的来源、目的意义和研究方法等,后者说明任务的背景、性质和委托方的要求。第二,缺少书面授权。作为翻译实践报告,按教育部《翻译硕士专业学位研究生教育指导性培养方案》的要求应该是原创性翻译。基于此,如果能够获得原文作者的书面授权,将更具有说服力。第三,引证不够严谨。文中夹注如第5页“古雅文”,第6页“龚献静”等中文作者建议用汉语拼音,同时注意所有文中夹注都标明具体引用页码。第四,语言和格式问题。语言如英文摘要“whilethereisnosubjectlesssentenceinEnglish”一句表述不清。格式问题如1)文献不用编号,按姓氏字母顺序排列即可;2)时态问题如“thisstudywill......”(第10页)建议改为现在时;3)部分关键词首字母未大写。,0,1,1,0,0,0,-1,0,0,0,1,0,0,0 +2282,本论文以实际应用需求为出发点,通过对酸笋进行分离纯化,获得具有较好发酵性能的乳酸菌且为异型发酵乳酸菌柠檬明串珠菌。并将其余同型发酵乳酸菌植物乳杆菌L01分别接种发酵竹笋,发现柠檬明串珠菌可以快速启动发酵,一直腐败菌的生长。此外,将异/同型发酵乳酸菌柠檬明串珠菌混合作为发酵剂发酵酸笋,接种混合发酵剂发酵的酸笋产生的一些列化合物,对酸笋的风味形成具有积极作用,对改善酸笋的风味具有重要影响。该工作应用前景较好,具有较好的应用价值。内容详实、数据分析得当,是一篇较好的学位论文。,0,1,0,0,0,0,0,0,1,0,0,1,0,0 +1903,论文针对高速永磁电机转子温升过高会增加永磁体失磁的现状,研究高速永磁电机的转子涡流损耗及抑制损方法,选题具有一定的理论意义和实用价值。 论文在查阅国内外高速永磁电机转子损耗计算和损耗抑制方法的基础上,建立了考虑饱和的高速永磁电机转子涡流损耗解析模型,分析了气隙长度、护套电导率对转子涡流损耗的影响规律;建立了非同心磁极结构和转子屏蔽结构高速永磁电机的涡流损耗解析模型,分析了这两种结构的转子的涡流损耗;通过有限元模型和实验验证了解析模型的正确性。 论文结构严谨,层次分明,参考文献格式规范,图表、公式基本符合科技论文写作规范,研究工作表明该同学掌握了本学科领域的学术动态、基础理论及专业知识。 总之,论文达到了硕士论文水平,建议修改后按期参加答辩。,0,1,1,0,1,0,1,0,1,0,0,0,0,0 +1995,"清洁的水资源是经济发展、居民健康生活的重要保障。然而随着经济快速发展,水体污染日益严重,迫切需要得到解决。近年来研究发现,非晶态合金具有较好的催化分解废水中污染物的能力,在废水处理中具有重要的应用价值。然后由于合金种类、抗腐蚀性、降解机理以及处理工艺不尽相同,导致非晶态合金可重复使用性以及废水处理效果不佳,亟需系统研究。该学位论文主要研究了Cu46Zr47-xAl7Yx(x = 0,1,3,5)非晶合金的废水处理性能,对比分析了还原法和电化学法的不同工艺参数对酸性橙II(AO II)偶氮染料的降解效果,同时对比分析了电化学法对顺式氯氰菊酯农药和AO II 偶氮染料两种模拟废水的降解效果,获得了具有实际意义的研究结果。总体上讲,该论文选题切实, 具有明确的研究与应用价值。论文文献综述全面、图表规范、数据比较充实,论证较为充分,达到了硕士学位论文的要求。因此同意其参加硕士学位论文答辩。 建议针对以下意见对该学位论文做适当修改。 1. 图3.2和 图4.2中38-39度附近均出现一个强峰,应指认清楚。 2. 对有机染料的降解效果,TOC也是一种重要的指标,建议补充。 3. 建议测试对实际废水的降解效果。 4. 建议将非晶态合金的废水降解性能与已报道相关结果进行综合比较。",0,0,1,1,0,0,1,0,0,0,0,0,0,0 +60,本课题主要研究 Si 对铸造 Al-Si 系合金低温力学性能变化规律,通过变质、热处理等方式改变合金 Si 相形貌尺寸,进而提高合金低温性能,获得低温下高性能的Al-Si 合金。论文研究 Na 了变质处理以及挤压铸造对 Al-7Si-0.3Mg 合金 Si 相的影响,从而分析Si 相对合金低温拉伸性能的影响; 通过改变 Al-Si-Mg 合金中 Si 含量,研究了不同 Si 含量合金低温性能的变化规律; 确定固溶处理对合金低温拉伸性能影响的变化规律以及第二相形貌和分布的变化以及时效处理对深冷后合金组织与低温拉伸性能的影响。 论文工作量满足硕士培养的体量,论文的选题有较好的应用价值意义。论文所涉及的几方面研究内容,也较好的呈现了Si元素对所研究对象的影响。实验方案是传统经典的,也没有问题。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +616,论文针对光伏用分裂变压器动、热稳定性问题开展研究,选择典型变压器类型,建立了其三维电磁计算模型,研究了变压器绕组漏磁场的分布规律,找出了所受应力最大值的位置、大小和方向。基于光伏用分裂变压器三维温度场计算,分析了内部温度分布规律和最大温度点位置。针对暂态情况下变压器内部电磁过程变化,评估了分裂变压器的动稳定性,为变压器优化设计提供了依据。论文主要观点正确,写作较规范,能够正确运用专业知识,达到硕士论文水平,同意提交答辩。,0,0,0,0,1,1,1,0,0,0,0,0,0,0 +2951,"提出空间角转换算法结合红外光谱技术,借助光谱预处理手段,建立了一种简便快捷且实用的质量检验模型,快速测定食品中的石蜡添加.有一定的应用前景.该方法新颖,测量快速,论文撰写规范,思路清晰,文献归纳较为完善,语言表达准确,严密,书写规范.同意修订后答辩.意见有如下1.大米中石蜡的涂量怎么计算出来的?2.方法的检测范围?是否与市场添加量都可以覆盖?3.是否用同一个样品,如大米样品,本文方法与其他方法有没有对比?4.为何不用果糖和鲜蛋做样品实验?这样对添加石蜡如果可以快速含量检测,是不是更好?",0,0,1,0,0,0,1,1,0,-1,0,0,0,0 +1659,论文描述了“铸造抽芯”制备大长径比阵列细孔和U型细孔材料的实验研究。 大长径比阵列细孔和U型细孔合金材料是具有广泛应用的尖端材料。论文报道的大长径比阵列细孔材料的制备方法较现行的机械加工和传统铸造工艺有着显著的优点,因此,论文具备一定的新颖性和明显的实用价值。 论文对相关文献作了较为系统的阐述。综述了机械加工和传统铸造工艺制造细孔材料的特点和局限性,同时,描述了碳纤维与铝的关键物理化学性质——例如,它们之间几乎不发生化学作用、高温液态金属在碳纤维界面的低润湿性——清晰地呈现了“铸造抽芯”实验设计的文献基础和研究意义。 论文方法与技术较为系统规范,实验设计因素较为全面完整。例如,铝硅合金的不同成分对成孔特征的影响实验,进行了不同硅含量对熔体表面张力、成孔形貌特征、阵列孔特征,阵列孔性能影响等4个因素实验;浇注温度对细孔特征的影响实验,设计了细孔形貌、细孔粗糙度、细孔圆整度以及U型细孔孔壁粗糙度4个实验因素。实验结果合理、相互验证,从中反映出实验的可行性和实验操作的严谨性。同时,再考虑到制作预制件的繁杂与精细要求,论文还体现出作者在读期间饱满的工作量。 论文结构合理、格式规范、内容较充实、文笔较为流畅。,0,1,1,1,0,0,1,1,1,0,0,0,0,0 +1082,本论文通过对农发行L支行的绩效评价设计了一套平衡计分卡系统,并且通过问卷调查和层次分析法对于不同指标给出了相应的权重,对企业的管理有一定的实践意义。 文章采用的问卷调查与层次分析法对于企业如何设计平衡计分卡指标的权重有很好的参考作用,促进了平衡计分卡这套指标评价体系设计的可行性和可操作性。,0,1,0,0,0,0,0,0,0,0,0,0,0,0 +2720,论文选题较好,具有一定的现实意义。能够运用相应的理论和方法论证研究主题,结构合理,形式规范,该论文达到了硕士学位论文水平,但存在以下问题建议和导师商量后修改:1.在实证分析中缺少机制分析,未能指出公允价值计量、股票市场定价效率与注册制改革这三者之间存在关系的原因以及它们是如何发挥作用的,影响了实证分析部分的完整性;2.该论文实证分析部分的进一步分析中,对国企和民企进行了分样本回归分析,这一部分与论文的研究内容“公允价值计量对股票市场定价效率的影响,以及注册制改革对该关系的调节作用”的相关性并不高,且并没有说明对其进行分析的原因。3.注册制改革已经作为调节变量,为什么后面还要继续分组检验,即便分组不能直接比较系数大小,要进行组间系数差异检验之后才能比较系数大小。4.论文假设的提出缺乏有效论证,尤其是公允价值计量为什么能提高股票市场定价效率这个主假设。公允价值计量提高了价值相关性,但如何传导到股票市场定价效率上还需要理论和文献支撑。5.注册制改革是个外生冲击,一般做分组检验而不是做调节效应,按照冲击之前和之后分组更能检验出来这一影响。建议作者思考。6.部分参考文献质量不高,英文文献过于陈旧。参考文献格式存在错误,自身前后不一致。,0,1,-1,0,0,0,1,0,-1,1,-1,0,0,0 +55,奥氏体耐热钢因其良好的韧性和抗高温氧化性以及较高的蠕变强度而被广泛应用于燃煤锅炉及乙烯裂解炉管等高温服役构件中,但愈加复杂的工作环境和服役温度对耐热钢的性能也提出了更高的要求。本文以K-52 奥氏体耐热钢为基,通过添加Y、Ce、Zr 等微量稀有合金元素改善K-52钢的高温力学性能和氧化性能,系统研究了Y、Ce、Zr 等元素对k-52 基体钢组织、高温力学性能和氧化性能的影响规律和机理,选题具有较大的理论意义和实用价值。作者查阅了大量的相关文献,基本了解研究领域的国内外发展现状,具有较好的分析问题和解决问题的能力。论文研究内容较丰富,理论分析较深入,体现了作者较好的掌握了本学科的专业知识和基础理论,具备独立从事科学研究的能力。论文写作格式规范,结构清晰,达到了工学硕士学位论文的水平,同意答辩,并建议授予工学硕士学位。,0,1,1,1,1,1,1,0,1,0,0,0,1,0 +2351,本文以A股上市的高科技企业及智力资本相关数据为样本,选题来源于资本市场的资产评估实践,符合专业性要求;论文运用多元回归统计分析方法展开研究,以期构建反映高科技企业价值及智力资本之间关系的数学模型。论文体现了研究的应用性和专业性,研究结论有一定的参考价值和现实意义。论文文献综述的整理详备,能够综合运用相关的资产评估理论知识,选择了合适的案例研究方法。研究资料翔实,资料运用合理、得当,论证充分,符合专业特点,研究工作深入,工作量饱满。论文的观点明确,逻辑清晰,结构合理,层次分明,文笔流畅,形式规范。论文不足之处是:1.根据论文,建议题目改为:“基于智力资本的高科技企业价值评估----以科大讯飞为例”。2.第二三章合并“参考文献与理论基础”,3.第六章标题改为“基于智力资本的科大讯飞企业价值评估”4.论文的文字还欠推敲,行文的打磨不够。,0,0,1,1,0,0,1,1,1,1,0,1,0,0 +1824,论文以某重载无人机的碳纤维传动轴为对象,研究其连接方式和铺层方式的设计,选题源于工程实际,具有实际价值。论文主要工作如下:(1)针对碳纤维传动轴的十字交叉销钉和胶接混合的连接,计算出其承受的扭矩和剪切应力及选用的三组销孔的大小、销孔的位置以及金属轴头与碳纤维管的搭接长度。(2)通过分析计算得出该传动轴铺层中主要以±45°铺层为主,并适当增加0°和90°的铺层角度来适当的承受碳纤维传动轴所需要承受的受剪切应力和轴向力。(3)通过实验对上述结果进行了验证。 论文撰写条理较清楚,实验可信,论文达到硕士学位论文要求。,0,1,0,0,0,0,0,0,1,0,0,0,0,0 +2052,微型电子元器件所需要的能量消耗已经降低至 mW与μW级,可以从周围环境中收集各种形式的能量(太阳能、热能、机械能等)来产生电能,替代传统电池来给电子设备供电。论文研究磁致伸缩振动能量收集技术,选题具有一定的理论意义和实用价值。 论文文基于铁镓合金复合式悬臂梁的磁致伸缩振动能量收集系统,从机械域、磁域和电域三个方面分别进行数学建模。从数值计算和实验两个方面进行了分析和验证,对收集器的附加配重、线圈长度和匝数以及外接负载电阻等进行了优化分析。优化后的磁致伸缩收集器可以为温度传感器的 LED 显示屏以及低功率的温度计进行供电。 论文结构合理,条理清晰,书写符合规范。论文已经达到硕士学位论文水平,可以参加答辩。,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +1001,  变电站的数字化、自动化、智能化是未来变电站设计建设的发展方向,论文作者针对远动终端的数据采集方法及数据处理方法开展研究,以期达到更好的性能,因此,该项研究具有重要的理论意义和实用价值。   论文作者在介绍了远动终端信号采样方法的基础上,设计了远动终端信号采集硬件电路,给出了用 K-MEANS 聚类算法对异常信号数据的识别和去除方法,并初步完成了远动终端装置实验室测试及测试结果分析。论文研究思路和技术路线正确,基本具备了独立从事科研工作能力,论文撰写规范,表述清楚,已达到硕士研究生的毕业要求,建议论文修改完善后提交答辩。,0,0,0,0,0,1,1,1,0,0,0,1,0,0 +1363,该论文以渭武高速公路秦峪隧道为工程背景,研究泥灰岩隧道突水变化规律并建立了预警系统。开展了相似材料正交试验,设计了多功能水压稳压加载模拟装置和低周期循环加卸载隧道突涌水三维地质力学模型试验系统,分析了泥灰岩隧道采用台阶法开挖过程中突涌水的前兆信息演化规律。论文研究内容充实,写作较规范,分析较合理,体现出作者具有较扎实的理论基础和专业知识与较强的科研能力,达到了建筑与土木工程专业的要求,同意进行答辩。,0,0,0,0,1,1,1,0,0,0,0,0,0,0 +1708,论文选题具有较强的理论意义。麦考密克对法律推理和法律论证的贡献是法理学界重点关注的问题之一,后果主义论证是麦考密克对法律推论和论证的重要贡献,而如何平衡演绎推理和后果主义论证之间的关系,是今天学界的难题之一。 作者以麦考密克的二阶证立论证模式为主题和目标,试图通过对麦考密克二阶证立模式的分析和探究,寻找和发现麦考密克如何解决演绎推理和后果主义论证之间的关系,从二阶证立模式的理论基础、模型到司法适用,对该模式进行了较准确的分析、整理和论证。 作者文献收集、阅读和整理较为认真详细,理论功底较好,基本上能够准确把握麦考密克的理论。 总而言之,本论文达到了毕业论文的要求。,0,1,1,0,1,0,0,0,0,0,0,0,0,0 +2088,一、 选题价值 在线旅行社是以网络为主体、以旅游信息、电商银行为基础的旅游服务行业的商务体系,以散客自主、组团、参团旅游为主,极大丰富了旅游市场。最为严重的是,旅游产品信息、价格、线路或线下旅游体感中存在的信息失真或不对称现象,导致在线旅行社的商业信誉不足或信誉失真或信用成本过高,严重影响在线旅游业的健康发展。在线旅游平台涉及到平台运营者、旅游产品提供商的服务质量、信息虚假和旅游合同与旅游体感的差异,导致在线旅行社的整体信誉失信。这是复杂性的系统问题,值得探讨和研究。对进一步提升在线旅行社信誉和降低客户信用成本有着积极意义。 二、论文研究目标、方法和主要内容评价 本文在相关理论和文献评述的基础上,对在线旅行社在线信誉系统特征进行分析,提出在线信誉系统在消除逆向选择现象、借助于系统动力学探索在线旅行社在线信誉系统的形成机制和关键因素;建立考信誉计算模型,并对线信誉系统进行了相关性检验与优化。本文对在线旅行社信誉系统的研究目标是明确的。 本文通过建立实证验证分析模型,分析了在线旅行社信誉系统在运行过程中的消费者、在线旅行社商与商品购买行为之间的关键变量相关性,进一步利用系统动力学方法,分析了线旅行社在线信誉系统的相关变量之间因果关系,通过系统仿真技术,分析各个变量对在线旅行社在线信誉值的影响效度。本文证明在线旅行社商品信誉值存在“转折点”,当综合评分大于该信誉值时商家会选择投机交易而不是诚实交易的现象;构建了在线旅行社平台信誉评分计算模型,有效降低欺诈、信誉共谋等问题对信誉评分的影响,对在线旅行社在线信誉系统自我改进、改良自身服务,提升自身信誉提供了明确方向。 论文研究方法选用正确,整体论文构造基本合理,逻辑结构和层次递进关系相对清晰,结论可信度较高。,0,1,0,0,0,0,0,0,1,1,1,0,0,0 +1480,高熵合金的独特组织结构,使其具有许多独特的性能,比如较高的耐磨性、强度和硬度等等。论文基于复相材料的阻尼机制,结合高熵合金的微观组织形成规律,设计和制备AlxFe2CrNiCu高熵合金中。 通过研究发现,Al元素含量对合金的晶体结构有着较大的影响,随着Al 元素含量的增加,高熵合金逐渐由单一 FCC相逐渐转变为 FCC+BCC 双相再转化为单一 BCC 相,该变化规律大体符合原子尺寸差、混合焓、价电子浓度 VEC 等判据标准。通过实验测试得到最佳性能的一个合金成分,为其后续的热处理研究做准备。根据以上的实验结果选取了 Al0.5Fe2CrNiCu双相高熵合金(基体为 BCC 结构,晶枝间相为 FCC 结构)作为性能最佳的成分进行后续退火处理的研究,进一步深入探究退火热处理对Al0.5Fe2CrNiCu双相高熵合金的组织与性能影响。合金中 BCC相与 FCC 相的比例大致为1:1且双相的晶粒尺寸较小时,高熵合金表现出较高的阻尼性能。论文选题具有实用价值,结构较为合理,论述充分,实验方案可行,表明作者在涉及学科已掌握了较扎实的基础知识和较宽广的专业知识,具备一定科研能力。但论文需要一定程度的修改。,0,1,0,1,1,1,0,0,1,1,0,0,0,0 +2545,该文研究了基于深度学习的道路交通标志目标检测与识别问题,选题具有明确的工程应用背景。论文对道路交通标志目标检测与识别的国内外研究现状进行了总结分析,作者对本学科领域的发展概况有一定程度的掌握。论文建立了华南交通标志数据集,改进了YOLOv3模型,实现了深度学习在道路交通标志目标检测与识别中的具体应用,具有一定的技术先进性和应用效果。从论文写作来看,作者能够综合运用所在领域的技术方法解决工程实际问题,专业知识相对扎实,研究方法和技能掌握相对较好。论文写作相对规范,结构基本合理,提供的数据相对翔实。综上,该论文已达到硕士学位论文水平要求,同意修改后参加答辩。论文存在的问题及不足之处:1、写作逻辑和语言需要进一步认真润色、修正。2、图1.1中未体现2020年的数据,结论从何得来?3、国内外研究现状仅梳理了20篇左右文献,调研不充分,归纳总结待提升,且写作无层次。4、2.3.3是2.3.2的具体内容,不建议单独分小节。5、第二、三章大量内容来自参考文献,但目前相关引用标注不充分,需要改进。6、部分图片质量偏低。7、参考文献格式不统一。,0,0,0,0,1,0,1,-1,-1,0,0,0,0,0 +2465,该论文选题具有较强的社会现实意义和理论研究价值。论文完成的工作量一般。论文结构较合理,思路较清晰,文献综述较好,论证过程较完整,重点较突出,语言表达较好,论文格式和写作符合规范。论文注重理论联系实际,定性和定量分析相结合,相关数据来源较可靠,选用的分析方法适当,计算过程和分析结果可信,有一些独立见解。论文存在的问题及不足之处:1、论文重点内容是比亚迪品牌价值评估,但为了扣题“创造”这一主题,在价值评估后,建议增加一章内容围绕如何“创造”价值,可以将第五章中第一小节内容整合进去。2、第四章内容,即比亚迪与蔚来品牌价值的差异比较,与前文逻辑不够紧密,显得有些突兀,需要交待比的原因、如何比、比的目的及作用,否则是为了比而比,有凑数之嫌。综上,论文达到专业硕士学位论文的要求和水平。,0,1,1,1,0,0,1,1,1,1,0,0,0,0 +3039,综合评价:文章选择改进后的剩余收益模型对新能源企业价值进行分析,具有一定的应用性;文章对模型的改进论证基本合理,基本符合专业特点。基本达到硕士学位论文水平。主要不足之处:1、理论基础不完整。在文章中仅在方法介绍章节中提到了剩余收益理论,并未介绍评估需要的一些基础理论,如企业价值理论、实物期权理论等等。2、行文逻辑存在问题。如摘要中第三段介绍评估方法的选择时,提到评估结论具备科学性,在第四段介绍案例时又提出评估结论具备科学性,两个段落实际是在表达同一个意思;目录部分的章节标题重复,第三章的第一节的(一)、(二)标题重复。写作不仔细,态度不端正。3、文章格式不规范。全文中存在多处语病、错别字,多次出现英文字符标点,比如摘要的第一句话、研究结论部分等;研究方法部分中提到案例研究法的段落中,模型构建公式直接放在的正文中,此类格式不规范。4、建议进行重大修改后参加答辩。,0,0,0,0,0,0,-1,0,-1,0,0,0,-1,0 +1949,论文针对轴承环抓取机器人作为研究对象,建立其数学模型,采用多种软件模拟分析其运动学和动力学特性,并对机器人大臂进行了结构优化提高其工作稳定性。 论文整体目标明确、思路清晰、逻辑通顺,从数学建模到软件模拟分析到机构优化,反映出作者具有较为扎实的专业基础知识和较强的软件学习和使用能力,具有较强的学术能力。论文研究具有一定实用价值,但创新性一般。,0,0,0,0,1,1,0,0,1,0,0,1,0,0 +2645,论文基于改进EVA法以晶澳科技为例研究了新能源光伏企业价值评估问题,所研究主题具有一定的理论意义和现实价值。参考文献丰富并分类梳理,给予较为中肯的评价,反映了作者具有一定的文献综述能力。论文依据新能源光伏企业的发展现状和价值影响因素,构建了动态资本结构下EVA法优化模型,结合B-S定价模型,设计了适合新能源光伏企业的综合评估模型,又以晶澳科技为例,进行了传统EVA法和改进EVA法评估的比较,论点较突出,结构条理,研究思路清晰,技术路线合理,方法运用得当,建议有一定针对性,反映了作者具有较好的正确运用所学专业知识解决现实问题的能力。工作量充实,文笔流畅,格式规范,达到硕士学位论文水平。不足及修改建议:(1)机构方面,第二章文献综述部分尽量再加一个“(三)总体评价”或者“(三)文献述评”,对研究现状汇总评价,同时最新英文文献稍欠缺,尽量增加新文献;第一章绪论增加“四、创新点”(2)注意语句凝练,如果有标题序号则需要有对应的标题语句,比如第2页“2现实意义”尽量不要直接在某个段落前加一个标题序号。,0,1,1,1,1,0,1,1,1,0,0,0,0,0 +2354,本文以比亚迪为研究对象,将该汽车企业整体价值分为现有资产价值和潜在获利价值两部分,企业的现有资产价值以EVA模型评估,企业的潜在获利价值以B-S模型评估。针对EVA模型的未来年度的营业收入,以ARIMA模型进行了预测,最后将评估得到的企业整体价值,与评估基准日的股价进行了对比分析并得出结论。在环境问题日益得到关注的大背景下,本文选取新能源汽车比亚迪企业作为研究对象,评估其企业价值,研究对象的选取具有一定的现实意义和学术价值,文章整体思路较清晰,分析量化计算较多,预测估计值采用了ARIMA模型,分析方法正确。达到了硕士论文的要求。1.论文多处存在错别字,如:P5“2.实务期权法在企业价值评估中的研究”;“王奇超,于志超将各类实务期权模型的适用条件进行研究,并探讨模型中参数的确定问题”。“实务期权”应为“实物期权”2.第二章企业价值评估理论章节里,作者介绍企业价值评估的5种方法而非理论分析,理论不等同于方法的介绍,如实物期权理论属于理论,但5种方法不属于理论。作为硕士论文,应有足够的理论支撑文章的分析,建议补充与本文企业价值相关的理论。3.文章多处提到本文的创新点是“构建了改进的EVA法”,文中并没有对EVA进行改进,只是对于未来年度的营业收入的预测作者采用了ARIMA模型,建议修正这个说法。4.建议作者将题目进行修改,文章就是比亚迪企业价值评估,并非要体现“混合模型”,一个企业价值评估多个模型结合是一个比较常见的问题。,-1,0,0,0,0,0,-1,0,1,0,0,0,0,0 +1388,该论文针对我国煤炭资源和运输现状,在多式联运的背景下研究煤炭调运方案。论文首先分析不同运输方式的优缺点及竞争力,然后建立模型优化煤炭调运路径,基于迪杰斯特拉算法找出初始解集,设计遗传算法与模拟退火算法相结合的混合求解算法。论文综合运用回归分析、指数平滑、灰色预测及动态神经网络方法,进行了煤炭消费量预测,并进行了实例验证。 论文选题较恰当,有一定的现实意义。论文结构较完整,有一定的写作思路,格式较规范,语言较通顺。论文研究方法较得当,有一定数据支撑和工作量。,0,1,0,1,0,0,1,1,1,1,0,0,0,0 +1676,论文提出了 C4F7N/CO2 混合气体替代 SF6的可行性,阐述了开断电弧研究的理论基础及后续仿真使用的电弧模型,建立 CO2、SF6、C4F7N/CO2 混合气体在直流电源、单一喷口、固定电极条件下的电弧模型。探索不同气体介质产生不同灭弧性能表现的原因。论文还从电弧径向温度分布、有效导热系数分布以及气体材料性能对电弧特性的影响方面进一步对三种灭弧介质的电弧特性对比分析,对比电弧形态上的差别与电弧温度的冷却速度快慢,从而找出决定气体灭弧性能密切相关的物性参数,研究 C4F7N/CO2 混合气体的灭弧性能。论文研究了在不同影响因素下 C4F7N/CO2 混合气体的电弧特性,研究 C4F7N/CO2 混合气体替代 SF6 气体灭弧的可行性。仿真研究结果给出了两种气体的电弧特性以及可变因素对C4F7N/CO2 混合气体电弧特性的影响,为研发新型 SF6 替代气体断路器提供理论依据。论文工作既有一定的理论意义,又有较好的实用价值,在特性分析上有自己的特点。 论文选题正确,属学科前沿。作者能全面掌握国内外研究现状,研究方法先进正确。工作表明作者有扎实的理论基础和较强的独立科研工作能力。 论文写作符合科技规范,发表论文成果尚好,达到了硕士毕业论文水平。,0,1,1,0,1,1,1,0,0,1,0,1,0,0 +2008,声学CT温度场重建属于非接触测温方法,是一种能够在不干扰被测温度场的前提下检测被测区域温度分布的计算机层析成像技术,该技术可用于气温度场监测、工业炉温度场监测、仓储粮食温度场监测等领域,具有很大的研究价值。在声学CT温度场重建系统中,声波传播时间,也称声波飞行时间声波(TOF,Time of flight)的测量精度是决定温度场重建精度的一个关键,该论文“声学CT温度场测量系统抗环境杂散声能力的提高”,对声学CT 温度场测量系统抗环境杂散声能力的提高展开研究。本论文选题符合本专业研究生的培养方向,具有一定的研究意义和较强的应用价值。该论文主要完成的工作总结如下: (1)为提高系统对相关噪声的抗干扰能力,结合盲源分离理论,文章提出了基于改进FastICA 算法和互相关时延估计的TOF 测量方法,即先对观测信号进行分离,后对分离信号做互相关运算估计TOF 值。 (2)针对FastICA 算法对初始值敏感的问题,采用了最速下降法获得了一个较优的迭代初值;针对FastICA 算法的不确定性导致的TOF 估计失败的情况,提出了对估计失败数据重新进行估计的策略。 (3)针对测量过程中可能会遇到强的、短时突发噪声,提出一种异常数据判别法和两种异常数据处理法,类滑动平均的TOF 异常数据处理法和剔除含异常数据声线的方法。 论文就上述主要内容进行设计和实验,以仓储粮食温度场监测为应用背景,构建温度场测试模型,对系统功能进行了验证,完成了相关功能。 总体来看,本论文结构合理,层次较清晰,论文书写规范。以上表明该生具备一定的本专业的基本理论和专业知识,论文基本符合研究生毕业要求,同意经适当修改后答辩。,0,1,0,0,1,0,1,0,1,0,0,0,0,0 +1029,《作业基础预算在XJ公司中的应用研究》论文选题符合会计专业实践,体现了本专业的应用性和职业性。研究资料运用基本合理、得当,符合专业特点,但论证不够充分,逻辑不够严谨。研究工工作量饱满。论文写作中遵守了学术道德,论文逻辑不够清晰,论点较明确,结构较合理,层次分明,文笔不够流畅,语言表达准确性方面有所欠缺,写作方面不太符合规范。 论文未达到专业硕士论文水平,不同意参加答辩。,0,1,0,1,0,0,-1,-1,-1,0,0,0,0,1 +1973,论文作者广泛查阅国内外相关文献,梳理了相关技术的研究现状,紧密结合激光增材制造装备人机操作任务,系统研究界面设计、优化、评价方法,取得如下成果: (1)任务建模,建立基于任务知识分析与感知觉-认知理论的装备人机任务分配模型,为界面优化与情感设计奠定基础。 (2)提出一种基于可达域场的,狼群-粒子群混合算法求解的界面布局优化方法。建立界面布局优化模型和求解方法,解决传统粒子群算法求解多维场布局模型易陷入局部最优解的问题。 (3)提出基于 Kansei-AD 的装备情感融合设计优化方法,应用公理化设计理论确定最佳情感融合设计方案,实现操作者心理情感因素与装备设计活动的融合。 (4)提出一种基于DEMATEL 和粗糙 VIKOR 结合的工效学优化设计综合评价方法。建立基于操作体验的装备多维度层次工效学评价体系,实现装备的工效学优化方案评估。 论文工作表明,作者在本领域掌握了坚实的理论基础和系统的专业知识,能够应用所学的知识理论联系实际的分析问题,解决问题,有很强的从事研究工作的能力。论文结构清楚,分许论述全面,达到了硕士论文的水平和要求。,0,0,1,0,1,1,0,0,1,0,0,0,0,0 +1782,论文依托北京地铁车站16号线达官营站的施工项目,对相关文献进行了综述,基于ANSYS有限元分析软件对深埋条件下的PBA暗挖工法施工过程中导洞开挖、桩系施工、扣拱施工以及站厅层站台层四个典型施工阶段的沉降、水平位移、应力及地表沉降变化,取得了一定的成果,可为类似工程施工参考。 论文写作认真,结构合理,技术路线正确。论文基本达到工学学术型硕士学位论文的要求。鉴于论文总体较简单,且有不少错误甚至严重错误,需认真修改,方可进行答辩。,0,0,0,0,0,0,-1,0,1,1,0,0,0,0 +2006,生产调度是解决怎么做(How to do)的问题,是显著减少产品生产等待时间和总时间、显著提高设备利用率的一个重要手段。据统计产品在生产过程中的等待时间已占到生产过程总时间的90%,这样一个事实充分说明了等待时间问题的严重性,也充分说明了生产调度在解决如何缩短等待时间问题方面的重要性。因此该文以基于考虑准备时间的并行分批调度与设备维护的联合决策问题研究为题有重要的理论意义和应用价值。 论文的主要工作和创新点包括:(1) 针对一类考虑准备时间和拖期惩罚的角度的并行机加工维护问题,结合设备维护的不可用性约束和维护开始时间与设备役龄间的关系,以最小化拖期惩罚与预防性维护成本之和为优化目标,建立并行机分批调度和预防性维护的数学模型;(2) 基于遗传算法的基本流程,设计了一个以标准批规则为基础的改进遗传算法,设计展现批次加工位置先后关系和批次指派加工的染色体,并设计了与种群特征自适应的选择算子、基于标准批的交叉算子和变异算子。最后通过算例仿真验证了所提算法的有效性。 论文结构合理,条理清楚,层次分明,文笔流畅,书写规范。作者已在基于考虑准备时间的并行分批调度与设备维护的联合决策问题的研究上有新见解。其论文工作表明作者已在本门学科上掌握坚实的基础理论和系统的专门知识,具有从事科学研究工作的能力,达到了国家学位条例对硕士学位论文所要求的学术水平,同意修改后直接答辩。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +2500,该论文针对卡西尼贮箱内液体的晃动问题,进行了实验设计、晃动性能分析和晃动抑制方案设计等研究。论文选题来源于工程实际,专业基础知识掌握较好,写作规范,论文逻辑性合理,修改建议如下:1.从文中来看图3-2应该是两个传感器数据的对比图,但此图中缺少图例,当两者差距不大时难以直观看出差别;2.第2章和第3章中均出现ε,但一个指测量误差,一个指灵敏度,建议换个符号以示区别;3.3.4节中“由图3-5可以看出,未经处理的固件质量和质心高度有明显的误差”,而图3-5体现的只是质心高度;4.3.5.3节中一阶、二阶等是如何确定的?,0,0,0,0,1,0,1,0,1,-1,0,0,0,0 +724,停车场车位管理是在城市运行管理中非常重要的环节之一,对有效管控和缓解停车难问题必不可少,受到社会广泛的关注。“基于物联网的智能车位管理系统设计”选题对于提高社会停车管理水平非常有意义。做好这样的课题有一定的难度和工作量,符合专业培养目标。 本文设计了一种基于物联网理念的智能停车场车位管理系统。利用传统无线通讯技术采集停车场内的车位信息,使用互联网相关开发技术汇集车位数据并向用户提供Web服务,具有一定的实用和参考价值。 论文查阅了较多资料,对智能停车场车位管理系统的设计和实现进行了系统性描述,考虑问题细致,需要完成的工作量较大;行文基本符合学术规范。,0,1,1,1,0,0,1,0,0,0,0,0,0,0 +2579,"建议论文修改后再答辩主要问题如下:1.论文的语言表达有待完善。例如,摘要4.3.2StressingAdvises,词性错误:advise为动词,此处显然应该用名词advice,而且advice也是不可数名词。再如P4第1段的第2句Thisdifference...句子表达Chinglish,再如P22最后一段第2行contactthecontext等。2.所有的例句中英文句末都没有标点符号。3.翻译过程中的whiletranslation描述过于简单,这部分的难点仅列举了几个词汇的翻译,与全文详述的重难点不一致。4.P18例9原句看不出是表目的,翻译也是brokensentence;P24例24不属于无主句。5.4.3.3谈论的翻译方法是增加主语,但此处的例子和分析都没能说明增加主语的必要性。6.论文是以NewMark的交际翻译理论为指导,但具体的例子分析没能与理论很好得结合。",0,0,0,0,0,0,-1,-1,0,0,0,0,0,0 +1121,本文创建了合金蠕变曲线模型(本构方程),经多种实测拉伸蠕变曲线测试显示,所创建模型能够完整地表达各种合金不同类型蠕变的全过程,模拟蠕变速率与实测蠕变速率吻合很好,表明本模型适合用于表达一般耐热/高温合金材料的蠕变过程。利用本模型对403Nb 马氏体耐热钢、Sanicro25奥氏体钢、TiAl-Nb合金和一种含Ru镍基单晶高温合金的蠕变曲线进行模拟及预测均能取得了良好的效果,具有较高的测算精度。 总体而言,本论文实验理论相结合来解决问题,工作量饱满,文字表达基本规范,条理、逻辑清楚,体现了作者具有扎实的理论基础和系统的专门知识,达到硕士论文要求。论文虽有一些瑕疵,但不失为一篇不错的硕士论文,同意答辩。并建议作者对论文相关瑕疵修改以臻完善。,0,0,0,1,1,0,1,0,1,0,0,0,0,0 +1593,论文对开关磁阻电机的控制进行了研究,论文从工作原理、数学模型、控制策略进行了理论分析,并采用软件平台对电机系统进行特性和控制策略分析,并搭建了硬件实验平台。 磁阻电机作为一种高效节能电机,有其独特的优势,在生产中具有一定的应用价值,近些年发展也比较快,论文选题具有实际意义,研究目的明确。对国内外研究进行了综述,论文总体结构完整,论述逻辑清楚,但创新点不突出,结论分析简单。论文工作量合理,结论合理。,0,1,1,1,0,0,0,0,1,0,1,-1,0,0 +266,该论文针对空气直流断路器在我国直流配电系统及工程应用中的重要性,制作了直流空气断路器实验样机,完成了不同驱动条件下的电弧实验。同时,建立了二维磁流体动力学电弧模型,仿真分析了分段电弧的动态演变过程。研究结果对改进空气直流断路器内灭弧室结构提供了研究依据。论文研究内容饱满,数据分析透彻,得出有价值的结论。论文书写规范,表述清楚,同意答辩。,0,0,0,1,0,0,1,1,0,0,1,1,0,0 +2765,论文选题具有重要的研究意义及实际应用价值,研究内容充实,研究方法合理,体现作者对相关研究现状了解充分、具有较好的学术科研工作能力。行文表达及规范性方面较差,需要修改完善。以下几点建议:(1)文中很多处存在语句表达及标点符号运用不合理的情况(随便举几例:1P42“本节开展板式橡胶支座力学性能有限元分析是为下文测力传感器测点位置的选取及布设提供理论指导。通过有限元模拟板式橡胶支座轴压试验,获取下底钢板竖向应力分布规律及应力大小,分析判断下底钢板应力最大区域,应力最大区域为薄弱环节同时测力响应最明显,在此处布设测力传感器效果最佳。”;P45最后一段“首先测力传感器布设必须采用开槽方式,方槽、圆槽甚至抛物线形凹槽都难免应力集中的产生。”是否应为“都难以避免”更便于理解;太多了,几乎随便翻到哪一页,都有读起来很不顺的语句;),可能引起歧义,建议对全文进行仔细校对修改,指导教师严格把关,待语句通顺,表意清晰后定稿;(2)建议无需每一章都列第一节“引言”的标题,可删除改节标题,实际内容保留,单应注意后续节编号相应修改;(3)P69页表中第一列,单位重复,建议对照全文,如有类似情况同意修改完善。,0,1,0,1,0,1,-1,-1,0,1,0,0,0,0 +1631,论文将中压三电平全功率变流器应用于风力发电系统,以便更好的解决大容量风电机组电压跌落/骤升故障发生时的高/低电压穿越,选题有意义。论文建立了风力机、PMSG 和中压三电平 NPC 变流器的数学模型,研究了机侧零 d 轴电流控制策略和网侧电网电压定向矢量控制策略,着重研究风电系统中中压三电平并网故障穿越问题。提出一种主动控制直流电压及动态无功输出的高电压穿越策略,保证故障期间对直流侧安全性及网侧变流器的控制要求,使风电机组能够顺利实现高电压穿越。并通过仿真,验证了所提方案的有效性。论文成果丰富,方案对解决风电系统并网故障问题有理论参考价值。,0,1,0,0,0,0,0,0,0,1,1,0,0,0 +1854,论文在对闸阀流体动力学综述的基础上,对核电站一级回路冷却阀的冲击性进行了研究。论文选题结合工程实际,具有很好的理论研究意义和实际应用价值。 论文主要工作: 1. 进行了稳态和瞬态两种状态下流体动力学及流固耦合研究,并提出了改进措施,减小压力损失和减少应力集中。 2. 通过模态分析得出核电站电动闸阀振型和固有频率,利用响应频谱法和等效静力法对核电站一级回路冷却阀进行冲击性能研究,提出通过增大应力集中部位圆角措施,降低应力集中程度。 本文的使用的研究方法及理论分析正确,结构基本上完整,描述清楚,论文工作表明作者掌握了本领域的基础知识和专业知识。但论文内容不够丰富,建议修改后重审。,0,1,0,0,1,0,0,0,0,0,0,0,0,0 +1308,该论文利用高温烧结法制备了铁酸钠,之后将铁酸钠添加到赤泥中回收氧化铝和碱。论文主要集中于对各步骤最优工艺条件的确定上,但对相关的物相变化研究较少,论文题目未能较好地反映出论文内容。论文选题具有较好的应用基础,研究方法设计基本合理,结论基本可信,研究内容较充实,有较多的数学分析与佐证。文献引用上需要注意学术规范。,-1,1,0,1,0,0,-1,0,0,1,1,0,0,0 +1414,该硕士论文“磁流变材料磁特性测量及其工程应用”选题具有较好的实用推广需求,研究成果具有较好的理论指导意义。论文已经反映出该作者掌握了本门学科的基础理论和系统的专门知识,研究方法切实可行,研究成果有一定的创新性。论文已经反映出作者具备了从事该领域科学研究工作或独立担负专门技术工作的能力,有一定的工作量,数据科学可信,已经达到硕士毕业水平,但文章有些地方存在表述不准确的现象,同意其修改后答辩。,0,1,0,1,1,1,0,-1,0,1,1,1,0,1 +2602,论文“私募股权投资对企业估值定价的影响研究——基于创业板IPO数据”,通过私募股权投资对企业估值定价的影响研究,关注到了当前资产评估研究领域的新问题,选题较为新颖,论文对私募股权投资和企业价值评估的相关概念和研究进行了梳理和归纳,采用所学专业知识对其进行论证分析,对了解企业价值影响因素,促进企业价值评估体系的完善具有一定的理论和实践意义。论文论点清晰,论证分析有理论和方法基础,文献资料掌握全面;论文结构完善,层次分明,有一定创新性,文笔流畅,表达清晰。文章格式符合学术规范。通过论文的写作可见,该生掌握了相关的基础理论以及案例研究方法,具有一定科研方面的研究能力。综上,论文达到了硕士学位论文写作水平。论文存在如下的不足需要修改:1、(三)企业价值的评估方法,这部分内容中有部分界定和描述有误,建议修改完善。2、第四章私募股权投资与企业价值的实证分析,研究设计中其他影响因素分析缺乏,指标的选择分析不足,导致影响因素指标作用不清晰,对研究结论的支撑未凸显,影响论文结论的实践应用意义。3、样本的特征和选择分析缺乏,模型假设支撑不足。4、第四章私募股权投资与企业价值的实证分析,建议对研究相关影响因素从理论和实践等方面进行分析总结,提出利用样本分析的目的和分析方向,再针对性提出假设和技术方案,增强论文的系统性和逻辑性。5、建议实证分析设计中增加各分析步骤的设计思路和作用,并结合研究目的进行归纳分析,充分体现实证研究的目的并进一步支撑研究结论。6、论文存在部分描述有误,建议校对修改。,0,1,1,0,1,1,1,1,1,1,0,1,0,0 +286,该生通过了解国内外本研究领域现状和研究成果,收集论文写作所必需的参考文献,有较好的分析能力。该课题在既往工作的基础上,通过大量试验,研究冻融条件循环、硫酸钠溶液腐蚀等条件下水泥土的力学特性、疲劳特性等,建立抗压强度和劈裂抗拉强度与疲劳次数、冻融次数等的变化规律,建立了关于疲劳寿命的三因素回归模型,研究冻融腐蚀对水泥土微观结构的影响。论文运用的理论知识、研究方法和实验手段符合实际情况,实验设计合理,方法和数据较为正确可靠,其中实验的内容占总论文的大部分,反映出作者具有一定从事科研工作的能力。 论文写作结构合理,条理性好,层次清楚,有逻辑性,文字图表较规范,达到硕士学位论文水平的要求,建议给予答辩。,0,0,0,0,0,1,1,1,1,0,0,0,0,0 +470,论文围绕可再生能源利用中的弃凤消纳问题,针对包括火电机组、热点联产机组等多种不同微源的网络组成中的经济调度问题展开了研究,选题具有重要的理论意义和应用价值。 论文首先对不同微源的出力模型以及相关领域的研究现状进行梳理,进而分别针对是否包括配电锅炉储热装置的不同微网类型进行多时间尺度调度,建立了相应的数学模型,基于差分进化思想设计了问题的求解算法,仿真分析初步验证了上述方法的有效性。 论文结构清晰,语句通顺,公式、图、表的使用基本符合相关规范,已经达到了硕士学位论文的水平。论文表明作者掌握了相关基础理论和专业知识,同意为其组织学位论文答辩。,0,1,0,0,1,0,1,0,0,0,0,0,0,0 +778,医用乳胶手套自动抓取装置设计一文,针对现有医用乳胶手套质量检测工艺存在的问题,设计一款自动抓取乳胶手套的装置。论文选题具有理论研究意义和实用价值。论文介绍了课题背景和研究现状、抓取装置控制系统设计、乳胶手套目标检测算法研究、乳胶手套特征区域检测算法研究、系统实现及实验结果等内容。论文条理清楚、概念清晰、逻辑性强、撰写规范,表明作者的基础理论和专业知识扎实,具有较强的科研工作能力,论文达到硕士学位论文水平。,0,1,0,0,1,1,1,1,1,0,0,0,0,0 +774,研究思路清晰,选题属于专业研究范畴,有一定的研究意义和社会价值。对专业知识的掌握较为扎实,能够运用所学的理论进行实际案例的分析,运用的工具较为得当,研究方法较为清楚,逻辑性较强,分析较为深入,文献梳理较为全面,有一定的工作量,从代理成本,引发盈余管理等多层面进行股权激励后果分析,运用数据较为翔实,语言流畅,写作格式较为规范。结构合理,层次清晰。,0,1,1,1,1,0,1,1,1,1,0,0,0,0 +2751,论文选题具有一定理论与实践意义,作者能够搜集一定数据与文献进行分析与研究,文章结构安排总体上较为合理,逻辑较为清晰,格式较规范。非核心资产剥离模型,意味着数据资产是该类企业最核心的资产,有几点问题有待商榷或修改完善:1)前面论述数据资产特征时,低价值性,和你的论述主题存在逻辑冲突。2)在预测时预测该公司最为核心的资产---数据资产收益期只有4年,意味该公司创建的所有数据资产平台似乎在4年后无价值,论述理由不够合理,让人怀疑该4年的合理性。3)请将表5-26,5-27一些重要结果与过程用文字说明,比如直接指出,数据资产回报率为37.87%,该折现率的合理性如何请补充说明,不能用一句话“验证前文学者的研究成果……”。4)第40页“价值在逐渐降低”,表里没看出来,是单年的折现值在降低吧?5)文中提到研究创新点,“使用层次分析法计算出数据所占份额来评估数据资产价值”,后文中没有明确看到作者使用这个方法做了。第五章研究成果部分,系统阐述数据资产的相关理论,这是你的研究成果吗?建立非核心资产剥离折现模型,这是作者的研究成果吗?把你具体干的工作总结归纳,得出什么结论和启示写明即可。,0,1,0,0,0,0,1,0,1,0,0,0,0,0 +1983,"木材缺陷的识别和鉴定是木制品加工过程中的重要环节,作者结合科研课题确定的“基于YOLOv3 网络的木板缺陷识别”的选题属于学术前沿领域,研究工作具有重要的理论意义和应用价值。 论文的创新性不足,主要是将现有的目标检测方法(YOLOv3网络模型)应用于木材缺陷识别。摘要部分列举的三点研究内容,第一点主要强调采集并标注了一组木板缺陷检测数据集,第二、三点内容重复说明本论文主要采用YOLOv3进行的木板缺陷检测并与Faster R-CNN做了对比。论文只能反映作者对研究背景有一定的了解,但分析问题、解决问题能力不足,论文大部分内容在讲述现有模型,但其中看不到与自己研究内容的渗透,而且基本方法描述中多处出现概念模糊;论文研究工作有难度,但工作量不足;论文中语言表达有待提升,出现多处语言不通甚至无故分段,文章结构较混乱,前后逻辑不严谨,偶尔出现与文章无关语句,文中多处图表出处不明。 综上,建议论文做大范围修改后再进行硕士学位论文申请及答辩。",0,1,0,-1,0,0,0,0,0,0,0,1,0,0 +338,固态变压器在能源互联网背景下具有广泛的应用前景,选题具有一定的理论和实际应用价值。论文文针对模块化多电平高频变压器在磁芯损耗计算方面进行了研究,探讨了改进方案并通过仿真进行了验证。通过对铁基纳米晶和软磁铁氧体两种高频材料特性的比分析。研究了C 型和E 型磁芯结构特点,进行了参数计算,采用绕组等效式建模方法搭建了仿真模型并进行了磁芯温度、损耗、电磁特性的分析与对比,验证了改进后的磁芯损耗计算方法的适用性。 论文理论依据充分,方法可行,逻辑清晰,结构合理,符合硕士论文的要求。,0,1,0,0,0,0,1,0,1,1,0,0,0,0 +375,论文《超声波储油罐底腐蚀检测机器人主控系统研究》以储油罐罐底腐蚀检测的在线检测为研究目标,研究了上位机软件作为核心的机器人主控系统。采用多种软件技术手段相结合的方法,实现了数据采集、实时显示和数据管理、分析等功能。论文选题合理,与工程实际应用紧密,具有一定的工程应用价值。论文最大的不足之处是创新点不足,工作量不够,行文如软件说明书,缺乏逻辑性与紧凑型。,0,1,0,-1,0,0,0,0,-1,0,0,-1,0,0 +1547,论文”矿用电动工程车轴向磁通永磁牵引电机的研究“针对矿用工程车为例设计了一台牵引电机,计算了电机转矩、功率、效率以及发热等。论文选题来自实际工程设计,具有一定的现实意义,但论文对于选择轴向磁通永磁电机的原因解释比较牵强。相比传统永磁电机,轴向磁通永磁电机在成本、损耗上并不占优。论文没有对设计的电机做验证,设计是否合理论文也没有进行说明。对于硕士论文,该论文创新点不强,写作和逻辑性基本达到硕士学位要求。,0,1,0,0,0,0,0,0,0,0,0,-1,0,0 +1795,论文以超级电容器用MnO2基电极材料为主题,通过在碳布和泡沫镍板两种基体上制备电极材料,然后组装超级电容器并表征其性能。该论文目的明确,实验方法合理,各种表征手段较先进,实验结果基本符合预期,研究工作具有较好的应用背景和重要的应用价值。 文献归纳较为全面,研究思路清晰,论文章节内容安排合理,内容描述逻辑条理清楚,工作量饱满,研究成果具有一定的新颖性和指导意义。,0,0,1,1,0,0,0,0,1,0,1,0,0,0 +972,随着全球气候的变化,掌握多年冻土区土壤有机碳含量分布特征及影响因子变得非常有意义。本论文探讨了呼玛河流域土壤有机碳的空间分布特征和环境影响要素,选题有一定的现实意义,论文也得到一些有参考价值的结果,但整体上来看,本论文还存在以下问题: 1.有的标题是SOC,有的用土壤有机碳,请保持统一。 2.本研究的采样点布设,从图上看并不是遵循采样点的空间均匀性原则,是条带状采样?请作者准备表述。 3.不同空间预测模型的预测结果存在差异,需要对造成这种差异的原因进行解读和分析,如采样点的空间分布特征,数据的变异性,模型自身特点等,本文的解释还不够全面深入。 4.本文通过比较Pearson相关系数的大小,得出各因子的重要程度高低,可能存在一定的不确定性,即相关系数大,不一定其影响就大。 5.论文的第四章是本论文的最核心章节,但这章内容未能充分展开,相关解释及讨论不充分,使得整篇论文略显单薄。 6.论文的创新性方面,表述应更慎重一些,空间插值方法的对比研究很多,将其作为创新点有些牵强。 ,0,1,0,0,0,0,0,-1,0,0,1,-1,-1,0 +312,该文在电工钢片旋转磁化下的磁滞特性进行了尝试,在对比分析几种常用的描述矢量磁滞特性数学模型的基础上,重点研究了逆矢量Jiles-Atherton 磁滞模型描述电工钢片旋转的磁滞特性的方法。在分析了传统 Jiles-Atherton 磁滞模型的基础理论及模型参数的传统辨识方法的基础上,对传统的逆矢量 Jiles-Atherton 磁滞模型进行了修正,并用优化方法对模型中的参数进行了辨识。在参数辨识之前确定了参数的初始值以及给出了参数 k 与磁通密度的关系,并把改进的模型计算结果与实验测量结果进行对比,验证了模型的有效性。最后运用 Ansoft 软件对一台同步发电机的磁特性进行了仿真分析,并详细给出了结合Jiles-Atherton 磁滞模型计算铁心磁场强度的方法和计算结果。 该文的研究对较精确地设计电机具有深远的意义,还有许多工作要做。希望能尽快提出能用于电机设计的精准的模型,融合到有限元方法之中。该文的结果具有一定的参考价值。显示该生掌握了较扎实的基础理论知识,具有较强的工作能力,达到了工学硕士的水平。建议修改后考虑进行答辩。 该文立论正确,论述有据。逻辑比较清晰,章节安排合理,图表符合工程要求。,0,1,0,0,1,1,1,0,1,1,1,1,0,0 +3019,针对脑卒中病人术后下肢康复训练的需求,根据医工结合的理论,开展了移动式下肢外骨骼康复机器人外骨骼的机构本体设计以及控制研究。通过对人体下肢肌肉骨骼模型、运动关节自由度以及人体平面内关节角度运动范围等进行分析,得到了外骨骼设计的基本参数。结合三维步态分析系统,设计实验采集行走过程中关节角度数据,分析人体行走过程中的步态周期,并处理后得到人体正常步态下的运动规律及轨迹。搭建下肢外骨骼康复机器人实验平台,设计实验,进行实验研究,采集实验数据。实验结果与理论分析以及仿真结果进行对比,验证下肢外骨骼康复机器人的结构设计的合理性以及控制算法的有效性。论文写作规范,数据翔实,达到硕士学位论文水平,建议参加答辩。,0,0,0,0,0,0,1,0,0,0,1,0,0,0 +2716,论文选题合理,满足经济社会发展需要,具有较好的创新性和应用价值。论文逻辑性强,能够针对缆索类零件PE表面生产缺陷及其尺寸检测等问题准确地描述方案并进行研究、实验,该文表明论文达到硕士学位论文水平。但仍存在以下问题:1)摘要需要进一步凝练,包括项目研究存在的问题等;2)论文对研究现状的介绍和分析略显不足,建议补充和完善;3)P11中图的标题可采用图2-1(a)~(d)来进行标注,后续的相同方法处理;P13中,外型设计中应标出各部件名称;光源颜色的选择原因建议进一步解释;相机和镜头的选择还应结合缆索这种检测对象的分辨率、帧频等参数,应从检测参数出发,最终确定型号;4)相机标定参数的意义应该详细解释;5)P54页中,5.1.3标题写法不规范;在进行边缘提取算法,采用CANNY算子的原因未陈述,要从数据上进行说明,不能仅仅说去噪效果一般,一笔带过;轮廓十等分的原因呢?直径是多长范围的平均值,还是说直径测量是全过程的?采用游标卡尺测量值作为理论值的原因是什么?从测量角度说,测量数据小数点后的有效数字是有含义的,不能随意舍去或增加,如表5-2!P62页中,陈述文字中,只有文字没有单位,应补充;系统实验完成后,应对测量误差或误差源进行有效分析,以提高测量精度;6)依据前述应有四个相机,间隔90度,但软件设计中,为什么只有两个机位?软件界面中,可以增加检测结果,0,1,0,0,0,0,-1,-1,1,-1,0,0,0,0 +2157,针对注气过程中垃圾土内多组分气体压力与浓度之间的协同变化规律问题,开展试验和数值模拟研究,选题具有一定的实用价值。 对于国内外研究现状论述较为清楚合理,较好地阐述了本文的研究目的和意义。 研究成果具有一定的实用价值,论文的创新性、难易程度和工作量较为一般。 论文作者基本具备了一定的独立从事课下研究的工作能力。 论文概念基本清晰,分析严谨程度一般,格式规范性有待提高。,0,1,1,-1,0,1,-1,0,0,0,1,1,0,0 +3024,整体来看工作量充足,计算内容较多,能够达到硕士毕业要求,但二、三、四章基本是在重复前人的工作,所以创新性一般,第五章通过响应面优化研究了九辆车在不同组合间距下的阻力系数,方法上略有创新,但结果对实际行车的安全性欠考虑。整体书写较为规范,语句通顺,但部分语句存在表述不清、口语化偏重等问题,还需雕琢。标点符号使用较随意,很多段落存在明显错误,建议对标点符号进行仔细修改。具体意见及建议如下:1.关于软件各方面功能介绍占据较多篇幅,意义不大,比如网格分类这些建议去掉。2.正文第8页介绍了几何模型,此模型有多大代表性?如果是1:1模型是不是小了点?应该将模型的合理性和代表性讲清楚。3.车队车辆间距是依据什么确定的?特别是0.25L和0.25W,间距如此小,与安全行车相悖,安全性要求一定是大于气动性能要求的,选这么小的间距分析依据是什么?合理吗?同样第五章通过优化得到平均阻力系数最低的配置为纵向间距为0.3L,间距如此小,实际行车可能吗?4.正文第41页最后,为什么可能出现了附面层分离?可以去看相应位置的流线图或各种云图,确定到底有没有分离?分离产生了什么实质影响?5.有些计算域是对称结构,为什么计算的时候没有用对称条件?这样可以减少计算工作量或在相同计算工作量下可增加流场细节。6.文中很多地方提到了涡结构对阻力的影响,那么涡是如何影响车辆阻力的?是由涡量决定还是其他因素决定?什么情况下易产生涡?怎样避免不利涡结构?7.正文第57页,“速度分布越来越小”是什么意思。另外,只是向侧方偏移,没看到有“汇集”的现象。类似措辞不严谨的地方还有几处,建议多斟酌一下。8.第五章针对无侧风工况,利用中心复合设计优化九辆车在不同组合间距下的阻力系数,对于有侧风工况,能否按照同样的方法进行优化?如果可以,建议补充;如果不能,建议给出说明。,0,0,0,1,0,0,1,-1,0,0,-1,1,0,0 +2387,"本文针对柔性超级电容器电极材料研究现状和存在的问题,研究基于Ni-Mn双金属层状氧化物的系列电极材料,得到一定的有意义的研究结果。论文选题具有一定的先进性,工作量适中,内容撰写比较规范,语言表述逻辑性较好。表明作者在相关研究领域具有一定的理论基础和实践动手能力。达到了研究生培养相关标准。建议论文适当修改后直接参加答辩。论文存在的不足之处如下:1.目录中,第三四五章细分标题高度雷同,仅仅是换了个材料的差别,这种写法不能体现出各章研究的侧重点、亮点和差异性。2.第12页,table2-2“Instrumentsanequipments”中“an”应为“and”。另外,表征仪器后面有专门介绍,勿需再在表中重复罗列。3.第18页,XRD描述所涉及晶面指数最好在图上标注出来,方便阅读理解。另外,“但是图并未出现33.4°处的衍射峰,”这句话要表达的意思不清晰,因为前述峰位置和对应晶面数据中没有提到到33.4°,此处为何强调这个峰位置?4.第19页,Fig.3-1中,英文不要用顿号隔开,用英文标点符号。5.图3-4f,横坐标单词拼写有误。6.图4-1a,中衍射峰强度最强的两个峰均为标注和说明,且所引用标准谱图上也没有这两个峰,这两个峰代表什么。作者认为是Ni被Co或Mn部分替代,最好有参考文献或其它表征手段给予证实。7.物理量要用斜体。8.关于柔性器件的弯曲和扭曲程度,最好有定量的描述,比如弯曲多少度等,这样更能说明一些问题。9.图4-7b,交流阻抗纵坐标前面缺少一个负号。10.如图5-1,图和图题最好调整到在一页上。11.图5-6a,CV图扫速是多少,没有标注。",0,1,0,1,1,1,1,-1,1,0,0,0,0,0 +869, 京剧脸谱是中国戏曲中特有的化妆艺术,用写实和象征互相结合的艺术夸张手法,鲜明地表现某些人物的面貌,论文从京剧脸谱中提取视觉元素,试图从“形”,“色”,“意”三个方面,对京剧脸谱的纹样和色彩进行分析,结合化妆品特性将其融入现代化妆品品牌包装设计中,打造一个具有中国传统文化特色的化妆品品牌,以期传播和弘扬民族文化,因此,选题具有针性及社会实践价值。论文思路逻辑关系清晰,语言表达流畅、研究方法得当,结论比较明确,论文显示作者具备一定的研究能力。,0,1,0,0,0,1,0,1,1,1,1,0,0,0 +3067,作者针对基于视觉融合技术的田间导航线提取算法开展研究工作,选题具有一定的新颖性。作者首先为降低叶片遮挡道路对导航线提取的影响,提出了融合不同阶段特征的导航特征点的筛选方法;接着采用BP神经网络算法进行特征点的坐标转换;然后采用模糊决策算法对特征点集进行筛选。文中提供了实验结果。论文中的成果对于有植被遮挡的田间视觉导航研究具有一定的参考价值。论文结构合理、层次分明、逻辑较严谨、文字较通顺、格式较规范,总体来说,论文已达到硕士学位论文水平。论文存在的不足:1.论文第22页中“BP神经网络为3层网络,结构为2×3×2设置”,如何确定这神经网络层数和每层神经元个数?2.作者虽然研究融合,而且选择了模糊决策来处理特征点,但如何融合文中介绍得并不清晰。3.从文中提供的导航迹线来看,视觉处理后最终得到的是一条直线,曲线是否可以?为什么?,0,1,0,0,0,0,1,1,1,0,0,0,0,0 +2938,"社交电商近年来发展势头迅猛,论文选择社交电商企业为对象,围绕其价值评估问题进行探讨,从理论层面上有利于丰富电商企业价值评估体系,从实践层面上能够为社交电商的投融资活动提供依据,因此论文具有重要的理论意义和现实意义。论文结合社交电商企业的特点,选择基于用户价值的企业价值评估模型对其进行价值评估,同时对模型中的关键参数进行了修正,并应用修正后的模型对拼多多进行了价值评估。论文结构合理,逻辑清楚,论据充分,重点突出,研究方法合理,格式规范,文笔通顺,表明作者具有较好的本学科理论基础及相关的专业知识,具备了较好的综合分析能力和从事科研工作的能力,论文达到了硕士学位水平要求。论文的不足之处是:论文在相关理论部分提出了生命周期理论,在对拼多多进行案例背景分析时也对其所处的生命周期阶段进行了分析,但是在模型修正和拼多多价值评估部分,并没有考虑企业所处的生命周期阶段,因此社交电商企业所处的生命周期阶段到底如何影响其估值,本文并没有给出具体的分析。",0,1,0,0,1,1,1,1,1,1,-1,0,0,0 +995,针对现有工业控制网络安全态势评估模型存在评估精确性低、难以描述不确定性信息、模型与工业控制网络复杂结构契合度低等问题,该论文基于ER算法和BRB模型,提出了一个基于ER-BRB的工业异构网络安全态势评估模型,并采用 P-CMA-ES 算法优化模型的相关参数,提高评估结果精度。研究内容具有一定的实践价值。 论文结构比较合理,排版格式规范,一审修改后的行文逻辑更加清楚,文中第三章新增的对比实验使得论文结构更加合理,同时突出了作者的创新工作,修改后的论文基本上达到了硕士研究生的论文水平,建议小修后参加论文答辩。,0,1,0,0,0,0,1,0,1,0,0,1,0,0 +1400,该名研究生针对火箭发动机用的驱动电机进行了电磁场、温度场和应力场的综合分析,并分别完成的电磁设计、结构设计和散热设计,不仅通过ANSYS的大量仿真分析,而且利用样机进行实验验证,证明其电机设计的合理性。但整体电机设计中规中矩,并未发现突出的创新点,作者需要提炼适合高功率密度高速电机设计的创新点。论文整体撰写比较规范,一些格式问题需要认真调整。,0,0,0,0,0,0,1,0,0,0,0,-1,0,0 +206,盾构机在高铁、公路、地铁、水利工程等的隧道建设中已经成为非常重要的工具。研究盾构机的结构、原理、控制系统等具有非常重要的适用价值,因此,作者选用《盾构机支护作业液压同步及位置控制系统研究》作为硕士论文课题,对盾构机的发展具有很重要的推进作用。但是,通篇整个作者的论文,没有发现作者的研究对盾构机有什么推动作用或者贡献。论文主要研究阀控非对称液压缸。论文的研究跑题了,没有将液压系统的同步及位置控制与盾构机紧密的联系起来。论文暂时没有达到硕士论文要求,建议做重大修改。,-1,1,0,0,0,0,0,0,0,0,0,-1,0,0 +1758,论文研究了工业协作机械臂的肌电信号采集、滤波和动作识别问题,选题具有重要的理论和现实价值。首先建立了操作者与机械臂的动作映射关系,然后通过重叠滑窗、聚类对比等过程提取信号特征,最后使用LSTM神经网络算法实现动作识别,逻辑性强。论文从背景描述、实验分析、理论分析角度展开,语言通顺。从已有成果看,作者具备基本的科研能力。 达到了硕士学位论文水平,建议修改后直接答辩。,0,1,0,0,0,1,0,1,1,0,0,0,0,0 +408,论文电动汽车高功率永磁电机的驱动需求,开展纯电动客车驱动用永磁电机的设计和高效区间的研究,选题具有较好的理论意义和实用价值。 论文在现有电动客车驱动系统中永磁同步电机的功率密度和效率运行区间研究的基础上,开展永磁电机的电磁结构设计,研究了不同极槽配合对齿槽转矩和损耗的影响,并对绕组分布、定子槽形、绕组反电势、定转子结构参数等进行优化设计,最后对不同转子磁路结构下的电机损耗特性进行对比分析,验证了不同类型电动客车驱动电机的高效率区间的运行规律。 论文叙述较为流畅,语句通顺,写作格式较规范,表明作者具备本学科较扎实的理论基础和系统知识,具备独立从事科研工作的能力,达到了硕士学位论文的要求。,0,1,0,0,1,1,1,0,0,0,0,0,0,0 +2320,本文通过对西部证券公司进行价值估值,提出了自由现金流的运算科目,加权平均资本成本和非财务指标的调整方面将模型进行改进的思路,合理地预测它的自由现金流与加权平均资本成本,最终得出改进后的估值结果相比于改进前原模型估值更加准确的评估结论。论文选题来源于实践,具有应用性,能够综合运用企业价值评估相关的理论知识,选择合适的方法,资料运用合理、得当,论证充分,研究成果有一定的应用价值,论文结构基本合理,层次较为清晰,概念基本清楚,逻辑性一般,综合归纳应用一般,结论基本合理。问题及不足:1、摘要,规范书写,研究背景、意义、目的、方法、结果凝练不当。2、研究思路与创新,资产评估FCFF模型估值个别指标选择创新值得商榷。3、文献综述规范性较差,文中同时出现使用两种标准引文格式,大量的陈旧文献,最新文献被遗漏,大部分文献标注未按顺序,混乱、前后不对应;文献评述结论“很少”“较少”“创新”“研究的深度还不够”表述不当和表达不明确。4、FCFF模型适用性,与模型FCFE区别,针对西部证券预测未来各期的自由现金流难度太大,贴现率影响大很难有统一的标准,多为人为主观判断,没有分步对营业利润、营业税金及附加、期间费用等进行详细地预测,影响结论。,0,1,-1,0,0,0,-1,0,0,0,0,0,0,0 +1334,该论文选题具有研究的价值。学术界对于李大钊的研究,大多集中在其政治思想、经济思想、哲学思想等方面,关于其工农教育思想方面虽然也有一些研究成果,但相对来说还比较薄弱。该论文在借鉴和吸收前人相关研究成果的基础上,对李大钊的工农教育思想进行了比较系统的梳理和分析。论文思路清楚,对文献资料的解读比较准确,观点的提炼和分析论证有一定的深度,文字表述也比较通顺,写作的规范性也较好。,0,1,0,0,0,0,1,1,1,0,0,0,1,0 +1896,论文针对风力发电机的建模及性能评估展开研究,选题具有较好的理论意义和实践价值。论文引入深度学习算法,利用长短期记忆神经网络构建风电机组的功率预测模型,并引入注意力机制来分配不同状态特征注意力权重,来提高模型的预测能力。针对风电机组的突发状况,建立基于随机过程的有限状态空间离散马尔可夫状态转移模型,制定出最佳检修策略。论文理论研究较为充分,工作量饱满,论文撰写符合要求,达到了硕士研究生论文要求。同意进行硕士论文答辩。,0,0,0,1,0,0,0,0,0,0,0,0,0,0 +62,本论文从理论方面分析了铁碳微电解反应机理和空化 撞击流强了铁碳微电解反应机理和空化 撞击流强有机 废水处理 过程的机, 并据此研制了可使流体微团产生强烈的碰撞 、剪切 、挤压和拉伸并形成微射流冲击波 的卧式对称反应器 ,并利用 Fluent 15.0Fluent 15.0Fluent 15.0 Fluent 15.0Fluent 15.0Fluent 15.0Fluent 15.0 Fluent 15.0软件 对其关键部件喷嘴的 内部流场进行了模拟分析。建立了化学反应速率的 数学模型 。论文进行了空化撞击流对 难 降解有机物氧化过程 的化学反应速率的影响化学反应速率的影响规律研究 。建立了空化撞击流技术影响下, 化学反应速率的数学模型, 利用自制反应器进行利用自制反应器进行了空化撞击流联合铁碳微电解法处理模拟废水的实验研究, 从理论和实验两方面研究 从理论和实验两方面研究 了空化撞击流对学反应速率的影响规律。论文具有一定创新度,掌握了相关知识,写作符合要求。,0,0,0,0,1,0,1,0,0,0,0,1,0,0 +906,该论文具备一定的学术水平,选题具有一定的理论与实践意义。通过论文显示作者能够掌握本研究领域的基本知识,具有较好的科学研究能力。论文研究的工作量比较饱满,数据处理工作量比较大。该论文在创新性上略显不足,其研究手段及技术指标的先进性有待加强。论文书写的规范性较好,分析逻辑与论证严谨性还有待加强,比如文献综述部分文献梳理的逻辑性,论文结论的准确性及严谨性均需要加强。个别地方文字表达的准确性、流畅性方面有欠缺,需要进一步推敲。,0,1,-1,1,1,1,0,-1,-1,0,-1,0,1,0 +2437,该论文基于机器视觉的空间构件预扫描算法研究与应用研究而成文,其选题在理论和实际工程应用技术上都有一定的研究意义,并对该领域国内外研究动态做了一定范围的归纳。针对焊接起始点位置问题,提出了在传统的RANSAC算法当中引入“三点取样预检测”子算法、“过分分割模型合并”子算法、“变形影响权重”子算法等融合算法,及一种K-medoids噪点预处理算法以及相机拍摄位姿控制方案,实验结果表明使用低成本线激光相机将标定精度控制在0.23mm内,焊接起始点识别的重复精度可达到0.34mm,识别速度可控制在10秒以内。论文写作基本符合科技论文撰写要求。不足之处如下:1)英文摘要有语法错误,请进一步修改完善;2)参考文献中有格式错误(如[62]),请参照科技论文写作要求进行修改;3)第一章参考文献引用形式上有错误,请参照科技论文写作要求进行修改;4)第三章描述机械臂的坐标定位“手眼定位”问题,问题分析后提出了二点影响因素,并重点放在数据预处理,表3-1所示数据分析结果。但是,没有标出理论值作为参考,无法分辨数据的可靠性;5)第四章有关空间构件焊接起始点识别算法,完全可以参考数控加工,由程序编程带入部分信息,计算完成部分。现焊缝角点计算处理过于复杂,如图4-5和图4-6,点在不同线段上,会出现此问题吗?搞复杂了,当然考虑后更加准确和安全;6)第4.2.4节公式4-8的dk是描述什么?7)表5-2发现提出改进方法与前方法数据对比差是明显的,每组都是重复20次的什么?平均值吗?,0,1,0,0,0,0,-1,0,0,0,0,0,0,0 +1998,全文结构基本合理科学,逻辑思路清晰,观点表达准确,语言流畅,论证方法较合理,参考文献资料符合主题要求,从主题到内容符合专业要求,在论证过程中能较好地将专业知识原理与现实问题结合起来。然而,真正属于自己创新的内容不是很多,花了很大篇幅在介绍现有算法理论基础,如第二章及第三章云计算模型算法,总体上达到毕业论文要求。,0,0,1,0,0,0,0,1,1,0,0,-1,0,0 +1391,该论文旨在设计采煤用低速大转矩永磁电机,但是论文的内容有拼凑之嫌,文献综述部分图片为截图,并不清晰,大部分参考文献为国内文献,国际视野有所不足。论文对电机过载能力的分析过于基础,基本是现有文献的总结,且未突出性能指标的优化重点。电机设计流程过于普遍,未见明显创新。第四章展望内容过于冗余,有凑字数之嫌,与论文的主题关系不强。综上,该论文工作量暂未达到硕士学位论文的基本要求,建议作者进行修改。,-1,0,-1,-1,0,0,0,0,0,0,0,-1,0,-1 +2978,文章针对4WS汽车操纵稳定性控制问题,分析了相关动力学模型,提出了无模型自适应控制和自适应自抗扰控制两种方法。设计了相应的控制器,研究具有一定的实际意义,基本达到硕士学位论文水平,但文章仍有一些不足需要修正:1.文章的文献需进一步更新,文章研究的内容近些年也在一直发展,可将近三年的相关成果发展中的文献多列举一些。2.文章在所提方法的控制器仿真验证中,是否与当下最新别的方法进行仿真对比,如果没有,请在仿真验证时说明一下对所选用的不同方法来作对比的原因。3.文章通过仿真验证了所提方法的有效性,如果在条件允许下,可适当加一下实际的实验验证,这样对所提方法的有效性和可行性的验证会更具说服力。,0,0,-1,0,0,0,0,0,-1,0,0,1,0,0 +1490,管道缺陷处应力信号的准确检测对于识别管道运行状态具有重要的作用,论文采用强弱磁场技术对管道缺陷处的应力信号进行检测,选题具有重要的科学意义和实用价值。论文首先基于J-A理论建立力-磁关系模型,在该模型基础上,计算了铁磁性材料磁感应强度随外加磁场和外部载荷变化而变化的规律,找出应力信号在检测信号中占比最大时所对应的外部磁场,并据此设定检测应力的最佳弱磁场,并计算出弱磁场下的缺陷信号,实现弱磁场下应力信号和缺陷信号的解耦分离,从而完成管道缺陷处应力的检测。论文技术路线合理,工作量饱满,结论正确,表明作者具有一定的独立从事科学研究的工作能力。论文的主要不足在于,没有较好地综述所研究领域的国内外重要进展,论文中文字错误较多,还需认真修改后方可答辩。,0,1,-1,1,0,1,0,0,0,1,1,0,0,0 +2379,本文在综合吸收当前学术界已有研究成果的基础上,探究上市公司社会责任承担情况与企业价值之间的更深层次关系,以及公司内部控制水平在其中的调节作用。文章学术规范,文字流畅,逻辑鲜明,为推动企业不断完善自身的内部控制制度,规范其社会责任履行行为提出了有效的应对思路,具有一定的现实价值。论文以我国沪深两市A股上市公司的大量样本作为经验证据,从内部控制视角分析了社会责任履约行为发生后期对于企业价值的影响。研究发现社会责任的履约行为在当期会对企业价值产生一定的负向作用;企业内部控制的质量在企业社会责任与企业价值之间存在显著的调节作用,且在国有企业中调节效应会更高。文章采用多种方法对模型进行了验证,数据可靠,论据充分,文献综述比较丰富,通过实证研究结果为企业的价值创造与可持续发展提出了可参考的政策建议,反映了作者良好的科研能力。另一方面,由于论文的研究方向为企业价值评估,因此文章的重心理应放在企业价值的评估上面。然而通篇看来,论文着重进行了社会责任、内部控制和企业价值之间的相关性研究,探讨社会责任与内部控制对企业价值产生的影响,并没有体现评估这一核心要点,因此论文与学科专业的衔接性是否合理仍有待商榷。论文不足和建议:第一,论文与学科专业的衔接性较低。文章所属类别为企业价值评估,因此针对企业价值应该得出一个具体的评估值,或者对企业价值的评估方法进行改进。然而本文内容上主要侧重于社会责任、内部控制和企业价值之间的相关性研究,缺少对企业价值的评估,建议对内容进行适当修改。第二,论文第二章的理论基础相对比较单薄,且与文章整体研究的结合度不紧密,建议从管理学视角对企业内部控制的作用机制进行更多的理论梳理,增加文章的解释力度。第三,论文第四章通过实证研究得出社会责任的履行情况对企业价值的影响存在异质性,即在国有企业和非国有企业之间的表现不同。但是在第五章对应的政策建议中,只针对非国有企业的价值创造提出了解决思路,而对于如何利用社会责任提升国有企业价值缺少相应的政策建议。总的而言,论文表明作者掌握学科专业的基本理论和分析方法较好,基本达到了硕士学位论文水平的要求,同意该学位论文修改后参加答辩。,0,0,1,0,1,1,0,0,-1,0,1,0,0,0 +2281,本论文以酿酒酵母GJ2008为研究对象,外源添加所测甘蔗糖蜜中金属离子含量,研究金属离子对酵母细胞的发酵过程及理化特性的抑制作用,并结合转录组学技术深入分析复杂金属离子对酵母细胞的毒性机理。论文选题具有实用性和一定的理论价值,论文文献总结较为全面,基本掌握国内外应用研究现状与发展趋势。研究工作具有一定的创新性且工作量饱满。作者研究成果具有一定的先进性和应用价值;论文的书写比较规范、文字表达基本准确;分析较为严谨、逻辑严密;论文已达到硕士学位论文水平要求,同意答辩。,0,1,1,1,0,0,1,1,1,0,0,1,0,0 +2471,该论文选题贴合实际,研究方向符合专业培养目标,在吸收学术界已有研究成果的基础上,可以结合实际情况提出自己的分析和见解,论述观点正确,并将疫情前后的在线旅游企业价值进行了对比,付出了一定的工作量,使研究结果更具有说服力。此外,文献资料准备比较充实,叙述层次分明,文字较为通顺、流畅,行文符合学术规范。因此,该论文达到硕士学位论文水平。此论文所存在的不足主要在于:一是其时效性一般,主要是基于新冠疫情这一突发事件所做的研究;二是第六章对策建议部分与研究结论联系不紧密,难以体现该研究的实际应用性。,0,0,1,1,0,0,1,1,0,0,-1,-1,0,0 +621,论文针对含气泡缺陷的风力机复合材料叶片,通过理论分析与实验研究,探索了气泡缺陷演变过程中温度场和应力场的关联,选题具有理论价值和应用前景。 论文取得了如下结果: 1. 推导了气泡扩展为微裂纹时的温升与裂尖应力的函数关系,定义了气泡演化为微裂纹的临界时刻。 2. 通过红外热成像技术,观察了在复合材料试件拉伸过程中,气泡的分布、演化与温度分布及变化之间的联系。 3. 采用有限元方法,别计算了微裂纹附近不同点处的应力分布,通过仿真结果与实验观察的对比,说明了温度变化可以反映复合材料叶片中的损伤演变过程。 论文结构合理,写作规范,部分结果有新意,经过修改后方可就该硕士论文答辩。,0,1,0,0,0,0,1,0,1,0,0,1,0,0 +1380,该论文针对近β钛合金存在生产成本高、强塑性匹配差等问题,提出通过引入廉价金属Fe、Mo代替V的方式降低β钛合金成本,通过引入金属Zr提升β钛合金的抗拉强度,并采用d电子理论和Mo当量准则设计了一种新型钛合金Ti-6Mo-5V-3Al-2Fe-2Zr,分别研究直接时效热处理和固溶时效热处理对合金组织及拉伸性能的影响。本论文整体水平较高,主要体现在如下几个方面:(1)有一定创新性,合金的设计相对较新颖;(2)合金的制备方法简单有效,物理性质及拉伸性能的表征方法正确,数据量较多,数据可信,数据分析较完善,说明该研究生在读期间的工作较充分;(3)论文撰写格式合理,用词准确,语言组织相对较好。因此,认为该论文达到了硕士论文要求,同意该研究生参加硕士论文答辩。,0,0,0,1,0,0,1,1,0,1,0,1,0,0 +2261,本论文的选题结合了资本市场上一直以来存在的现实问题进行了有益的尝试;整体思路与逻辑较为合理;理论知识的理解、论文的规范性、实证工具运用与过程基本达到专业硕士研究生的要求。论文理论阐述过程中较多地结合、引用其他学者的研究成果,需要再进行恰当的梳理以形成自己更清晰的理解描述,使读者阅读全文能够前后呼应、易于理解。作者的论文在此是存在不足的,例如,P22公式(4-1)、P23表4-1列示的部分主要变量等,在前文的理论基础和理论分析中,似乎缺乏相对充分的描述。还有一个商榷的方面就是“并购绩效”和“管理者过度自信”的内涵,是全文的非常重要的基础,论文给予的充分度有待提升。结论:论文达到专业硕士学位要求。,0,0,0,0,0,0,-1,0,1,0,0,0,0,0 +1649,论文立题依据充足,能够理论联系实际,解决应用中的关键技术问题,论文的工作量满足硕士研究生的论文要求。论文分析永磁同步电机常见故障以及故障产生机理,通过变分模态分解对电流信号进行故障特征提取,利用能量熵分布上的各异性,将其集合作为故障诊断的特征向量,研究退磁故障和绕组匝间短路故障的识别方法。论文缺乏相应故障点的电流波形对比,样本不足。,0,1,0,-1,0,0,0,0,0,0,0,0,0,0 +2380,本文在综述了缆索类零件缺陷检测和基于视觉的零件尺寸测量的研究现状基础上,对缆索类零件PE表面缺陷及其尺寸的视觉在线检测进行研究,选题具有工程实用价值。针对缆索类零件PE表面缺陷及其尺寸在线检测的要求,对检测系统的器件进行选型。对相机进行标定。选择合适的滤波器对其进行降噪处理,结合形态学与阈值分割方法实现对缺陷的提取,根据缺陷的特征以及深度学习中的卷积神经网络算法对缺陷进行分类。根据缆索尺寸的特性选择边缘检测算子,对边缘检测轮廓依据其像素点的坐标进行十等分,采用加权最小二乘法对十等分边缘按顺序进行直线拟合,通过测量两条轮廓间的距离计算出缆索的直径。开发缆索类零件PE表面缺陷及其尺寸在线检测上位机软件。实验结果表明所设计检测系统能够满足检测需求。本论文写作条理清楚,逻辑性强,设计合理,方法可行,表明该同学具有较扎实的基础理论和专业知识,具有一定的科研工作能力。综上所述,该论文达到了硕士学位论文的要求,同意答辩。存在的问题:设计是采用4个相机,图2-5系统构成图与图2-6在线检测实验台都只有两台相机。图6-2软件界面只有1号机位和2号机位。若4个相机的话,同一处损伤有可能被两台相机拍到,如何处理?表6.1中两组有缺陷图片如何划分的?两组图片数量和与正文的采集图片总数25196不等;6.3节在线检测试验部分,生产线图不清楚在线检测系统在哪。公式4-29中的max作为下标更合适,变量应为斜体;图5-8、图5-9应放在正文图5-8、图5-9之后;P57中n、a、b等变量应为斜体;全文检查。,0,1,0,0,1,1,-1,0,1,0,0,0,0,0 +2505,该论文针对智能割草机的避障系统的目标检测、障碍物定位和避障算法进行深入研究,通过改进模型在保证检测精度的同时,将检测速度提高了48%,通过改进的人工势场法提高了避障能力。该研究选题合理,研究具有一定的实用性和创新性。达到硕士学位论文水平。但仍存在以下问题和建议,望考虑修改。1.绪论部分小结内容过少,无法体现本章核心内容,建议小结部分删除。2.第三章中,检测速度提升48%,该数值可以在摘要和结论中也体现出来,用实际数据说明其速度的提升。另外,第三章说保持了较好检测精度,有没有具体的指标参数,可以在文中具体说明。3.介绍篇幅太大,可以进行适当的删减。4.第四章只选取了障碍物的5个关键点去求取其最短距离是否准确?也许在这5个点之外有突出的地方,其为最短距离,会导致这个距离判断失误。这方面可以进行分析讨论。5.割草机应该是整片草地都要行进,但第五章只设置了起点和终点,是否合理。第五章只对比了传统人工势场法和改进算法,能否与其他避障算法进行对比。6.如果能在实际的割草机上进行实验算法会更好。结论部分需要再修改。7.结论部分缺少量化分析,创新性体现不足,建议增加定量分析和创新点。8.文章格式需要修改,例如P49行距不一致。,0,1,0,0,0,0,-1,-1,0,-1,-1,1,0,0 +1927,论文针对摩托车车轮发震、气孔两种缺陷,基于机器视觉方法,分别提出了基于相对幅值的轮辋加工面发震缺陷检测算法和基于相对幅值直方图的气孔缺陷检测算法,并构建了相应的视觉检测系统,实验结果表明,具有一定的检测准确率。论文的研究工作具有一定的实用价值。但是,本文所提出的方法相对简单,在学术水平上,创新性不高。,0,0,0,0,0,0,0,0,0,0,0,-1,0,0 +2704,论文选题符合学科和专业发展趋势,具有一定的理论意义和现实意义;作者对本学科及相关学科领域发展状况和学术动态有基本的了解。论文研究了关键绩效因素对企业专利商业化策略的影响,得出了结论,具有一定的理论价值,论文成果对于企业实施专利商业化策略具有一定的启示作用。论文体现出作者对学科基础理论和相关知识有基本掌握,体现出一定的分析问题和解决问题的能力;研究方法选用具有一定的科学性,论文结构层次基本合理,引证资料较为翔实,引文规范,学风严谨,语言表达准确,逻辑性较好。论文基本达到硕士学位论文水平。论文存在以下几点不足:第一,论文第5页,关于研究方法的表述,作为学术型学位论文,只有文献分析法和问卷调查法是不恰当的,论文的定量研究过程没有体现到研究方法的选择当中来,有必要进一步提炼;第二,关于文献综述,没有对与选题直接相关的文献从不同视角进行综述,逻辑较为混乱,前后次序也有必要进一步理顺;第三,关于理论基础,论文提出了三个基础理论,合法性理论与生命周期理论与你的研究的关系是什么?它是否与你的研究直接相关?你的研究成果是否拓展了这两个理论?请进一步说明。第四,作为学术学位论文,论文总体上理论模型过于简单,工作量不足;第五,关于论文结论,需要进一步总结提炼,尤其是第一个和第三个;第六,论文为什么要选择“走向东盟”的企业进行研究?如果更换研究对象,你的结论还具有普适性吗?需要解释说明。,0,1,-1,0,1,1,0,1,1,1,-1,1,0,0 +2738,论文选题具有一定的创新性,问题来源于实践,体现了应用性和职业性,研究结论有一定的实践意义,介入过程比较深入,材料比较丰富,论证比较充分,结构合理,层次分明,文笔较为流畅,形式比较规范。能够综合运用相关理论知识,对介入效果有量化的评估。达到硕士学位论文水平。应该做到有引必注,有些参考文献标注不规范;老年人社区融入的访谈提纲应该是个量表,而且它的信度和效度应该介绍清楚,研究方法部分应该介绍抽样方法。研究思路属于开题报告中的内容,论文中不应再出现。小组工作的概念应该在论文题目中体现。,0,1,0,0,0,0,1,1,1,0,1,1,0,0 diff --git a/data/train/train_data2.csv b/data/train/train_data2.csv new file mode 100644 index 0000000000000000000000000000000000000000..97671f6600f3cb3a1bfb886d7e3cb9a458558b98 --- /dev/null +++ b/data/train/train_data2.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:4fa7c2fc2712066a55f1367fc4421e3e7206400e315b68df7defd594e1a34030 +size 468835 diff --git a/data/train/train_data_old.csv b/data/train/train_data_old.csv new file mode 100644 index 0000000000000000000000000000000000000000..40225b4b794b3bdbc2431d6924dc428d2453b53d --- /dev/null +++ b/data/train/train_data_old.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:97cd8de21112574716c34b2dcaf7bfede6b32b2f3dfe19a06367c477c09aa159 +size 469082 diff --git a/data/valid/val_data.csv b/data/valid/val_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..a3379f7c82995f6aad00f2aa63b059338e8bad9a --- /dev/null +++ b/data/valid/val_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:b1834db140b02f3f530cd85272a2fbfc219b30bc9fb19e7a5893ddc81c79cfd0 +size 616683 diff --git a/data/valid/val_data_old.csv b/data/valid/val_data_old.csv new file mode 100644 index 0000000000000000000000000000000000000000..b2e1de30f232f2f9c0a2681e6bc2c6a9b7aecd5c --- /dev/null +++ b/data/valid/val_data_old.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:c826978817a4677a8fbab1195e2ac7ff9741aa653da16f1dd7a7f3f56f844520 +size 154559 diff --git "a/data/valid/\344\270\223\345\256\266\350\257\204\350\257\255.csv" "b/data/valid/\344\270\223\345\256\266\350\257\204\350\257\255.csv" new file mode 100644 index 0000000000000000000000000000000000000000..3bb725b1f755877a21b33aae125da795aa18c37a --- /dev/null +++ "b/data/valid/\344\270\223\345\256\266\350\257\204\350\257\255.csv" @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:55621fde0640b7d171df93ff215ec75f74bd3c3b0c7605f2e6ace9e9a7992a57 +size 535168 diff --git a/data_gen.py b/data_gen.py new file mode 100644 index 0000000000000000000000000000000000000000..91b1e0eecac4ba37a1a9633fd7bd0ca722275272 --- /dev/null +++ b/data_gen.py @@ -0,0 +1,249 @@ +import itertools + +import jieba +import numpy as np +from torch.utils.data import Dataset +import config +from tqdm import tqdm +from utils import * +import jieba_cut + + +def to_categorical(y, num_classes): + """ 1-hot encodes a tensor """ + return np.eye(num_classes, dtype='uint8')[y] + + +# Meaning Positive Neutral Negative Not mentioned +# Old labels 1 0 -1 -2 +# New labels 3 2 1 0 2.1.0 +def map_sentimental_type(value): + #return value + 2 + return value + 1 + + +def parse_user_reviews(user_reviews): + samples = [] + for i in range(len(user_reviews)): + content = user_reviews['content'][i] + label_tensor = np.empty((num_labels,), dtype=np.int32) + for idx, name in enumerate(label_names): + sentimental_type = user_reviews[name][i] + y = map_sentimental_type(sentimental_type) + # label_tensor[:, idx] = to_categorical(y, num_classes) + # CrossEntropyLoss does not expect a one-hot encoded vector as the target, but class indices. + label_tensor[idx] = y + samples.append({'content': content, 'label_tensor': label_tensor}) + #print("samples",samples) + return samples + +PAD, CLS, SEP = '[PAD]', '[CLS]','[SEP]' # padding符号, bert中综合信息符号 +def parse_user_reviews_bert(user_reviews): + samples = [] + pad_size=config.pad_size + sen_pad_size=config.sentence_pad_size + for i in range(len(user_reviews)): + content = user_reviews['content'][i] + sentences=jieba_cut.cut_sentence(content) + label_tensor = np.empty((num_labels,), dtype=np.int32) + sentences_ids=[] + sentences_mask=[] + for sentence in sentences: + token = config.tokenizer.tokenize(sentence) + ids = config.tokenizer.convert_tokens_to_ids(token) + if sen_pad_size: + if len(token) < sen_pad_size: + sentence_mask = [1] * len(ids) + [0] * (sen_pad_size - len(token)) + ids += ([0] * (sen_pad_size - len(token))) + else: + sentence_mask = [1] * sen_pad_size + ids = ids[:sen_pad_size] + seq_len = sen_pad_size + #print("每个句子的长度",len(ids)) + sentences_ids.append(ids) + sentences_mask.append(sentence_mask) + #print(sentences_ids,len(sentences_ids)) + + for idx, name in enumerate(label_names): + sentimental_type = user_reviews[name][i] + y = map_sentimental_type(sentimental_type) + # label_tensor[:, idx] = to_categorical(y, num_classes) + # CrossEntropyLoss does not expect a one-hot encoded vector as the target, but class indices. + label_tensor[idx] = y + token = config.tokenizer.tokenize(content) + #token = [CLS] + ["标题", "选题角度与价值", "文献综述归纳总结情况", "论文工作量", "是否掌握基础(专业)知识", "是否具备科研能力", "格式规范", "行文表达", "逻辑性", "研究方法", "研究结论", "创新性及论文价值", "理论深度", "学术端正性"]+token + aspect_token=config.tokenizer.tokenize("标题, 选题角度与价值, 文献综述归纳总结情况, 论文工作量, 是否掌握基础(专业)知识, 是否具备科研能力, 格式规范, 行文表达, 逻辑性, 研究方法, 研究结论, 创新性及论文价值, 理论深度, 学术端正性") + #print(aspect_token) + token = [CLS] + token + #token = [CLS] + token+ [SEP]+aspect_token+[SEP] + #print("token",token) + seq_len = len(token) + #print(seq_len) + mask = [] + #这一步只是根据字典将字符转换为对应ID,还没有自注意力的运算 + token_ids = config.tokenizer.convert_tokens_to_ids(token) #config.tokenizer=BertTokenizer.from_pretrained(bert_path).convert_tokens_to_ids + + #print("token_ids",token_ids) + if pad_size: + if len(token) < pad_size: + mask = [1] * len(token_ids) + [0] * (pad_size - len(token)) + token_ids += ([0] * (pad_size - len(token))) + else: + mask = [1] * pad_size + token_ids = token_ids[:pad_size] + seq_len = pad_size + #contents.append((token_ids, int(label), seq_len, mask)) + samples.append({'content': token_ids, 'label_tensor': label_tensor,'mask':mask,'sentences':sentences_ids,'sentences_mask':sentences_mask}) + #print("samples", samples) + return samples + + +def zeroPadding(l, fillvalue=PAD_token): + return list(itertools.zip_longest(*l, fillvalue=fillvalue)) + + +# Returns padded input sequence tensor and lengths +def inputVar(indexes_batch): + lengths = torch.tensor([len(indexes) for indexes in indexes_batch]) + padList = zeroPadding(indexes_batch) + padVar = torch.LongTensor(padList) + return padVar, lengths + + +# Returns all items for a given batch of pairs +def batch2TrainData(pair_batch): + pair_batch.sort(key=lambda x: len(x[0]), reverse=True) + input_batch, output_batch = [], [] + for pair in pair_batch: + input_batch.append(pair[0]) + output_batch.append(pair[1]) + inp, lengths = inputVar(input_batch) + output = torch.LongTensor(output_batch) + return inp, lengths, output + +def batch2TrainData_bert(pair_batch): + pair_batch.sort(key=lambda x: len(x[0]), reverse=True) + input_batch, output_batch,mask,sentences,sentences_mask = [], [],[],[],[] + for pair in pair_batch: + input_batch.append(pair[0]) + output_batch.append(pair[1]) + mask.append(pair[2]) + sentences.append(pair[3]) + sentences_mask.append(pair[4]) + inp, lengths = inputVar(input_batch) + output = torch.LongTensor(output_batch) + return inp, lengths, output,mask,sentences,sentences_mask + +class SaDataset(Dataset): + def __init__(self, split, voc,flag): + self.split = split + self.voc = voc + self.flag=flag + #assert self.split in {'train', 'valid'} #断言语句,用于检查self.split的取值是否在{'train', 'valid'}中。 + + if split == 'train': + filename = os.path.join(train_folder, train_filename) + elif split == 'valid': + filename = os.path.join(valid_folder, valid_filename) + else: + filename = os.path.join(test_a_folder, test_a_filename) + + if flag=='bert': + user_reviews = pd.read_csv(filename) + self.samples = parse_user_reviews_bert(user_reviews) #到这一步都没问题,samples中含有mask + self.num_chunks = len(self.samples) // chunk_size + #print(self.samples,"sampless!!!!") + else: + # user_reviews = pd.read_csv(filename,encoding='gbk') + user_reviews = pd.read_csv(filename) + self.samples = parse_user_reviews(user_reviews) + self.num_chunks = len(self.samples) // chunk_size + + + def __getitem__(self, i): + + pair_batch = [] + if self.flag=='bert': + for i_chunk in range(chunk_size): + idx = i * chunk_size + i_chunk + content = self.samples[idx]['content'] + input_indexes = content + # print(list(seg_list)) + label_tensor = self.samples[idx]['label_tensor'] + mask = self.samples[idx]['mask'] + sentences=self.samples[idx]['sentences'] #分句的列表 + sentences_mask=self.samples[idx]['sentences_mask'] #分句的mask + pair_batch.append((input_indexes, label_tensor,mask,sentences,sentences_mask)) + + return batch2TrainData_bert(pair_batch) + + else: + for i_chunk in range(chunk_size): + idx = i * chunk_size + i_chunk + content = self.samples[idx]['content'] + content = content.strip() + seg_list = jieba.cut(content) + input_indexes = encode_text(self.voc.word2index, list(seg_list)) + # print(list(seg_list)) + label_tensor = self.samples[idx]['label_tensor'] + pair_batch.append((input_indexes, label_tensor)) + + return batch2TrainData(pair_batch) + + + # pair_batch = [] + # + # for i_chunk in range(chunk_size): + # idx = i * chunk_size + i_chunk + # content = self.samples[idx]['content'] + # # print(list(seg_list)) + # label_tensor = self.samples[idx]['label_tensor'] + # mask=self.samples[idx]['mask'] + # pair_batch.append((content, label_tensor,mask)) + # + # return pair_batch + + + def __len__(self): + return self.num_chunks + + + + + +def build_dataset(config): + + def load_dataset(path, pad_size=32): + contents = [] + + with open(path, 'r', encoding='UTF-8') as f: + for line in tqdm(f): + #print(line) + lin = line.strip() + #print(lin) + if not lin: + continue + content, label = lin.split('\t') + #print(label) + #content, label = lin.split(',') + token = config.tokenizer.tokenize(content) + #print(token) + token = [CLS] + token + seq_len = len(token) + mask = [] + token_ids = config.tokenizer.convert_tokens_to_ids(token) + + if pad_size: + if len(token) < pad_size: + mask = [1] * len(token_ids) + [0] * (pad_size - len(token)) + token_ids += ([0] * (pad_size - len(token))) + else: + mask = [1] * pad_size + token_ids = token_ids[:pad_size] + seq_len = pad_size + contents.append((token_ids, int(label), seq_len, mask)) + return contents + train = load_dataset(config.train_path, config.pad_size) + dev = load_dataset(config.dev_path, config.pad_size) + test = load_dataset(config.test_path, config.pad_size) + return train, dev, test \ No newline at end of file diff --git a/data_make.py b/data_make.py new file mode 100644 index 0000000000000000000000000000000000000000..48dac0e751e94164fe71cbac6380e0b03b40a652 --- /dev/null +++ b/data_make.py @@ -0,0 +1,22 @@ +import pandas as pd +import numpy as np +from sklearn.model_selection import train_test_split +import chardet + +# 检测文件的编码方式 +with open('data/total.csv', 'rb') as f: + result = chardet.detect(f.read()) + +# 使用检测到的编码方式读取文件 +#data = pd.read_csv('专家评语.csv', encoding=result['encoding']) + +data = pd.read_csv('data/total.csv',encoding=result['encoding']) + +# 划分数据集为训练集、验证集和测试集 +train_data, test_data = train_test_split(data, test_size=0.2, random_state=42) +train_data, val_data = train_test_split(train_data, test_size=0.25, random_state=42) + +# 将数据保存到新的CSV文件 +train_data.to_csv('train_data.csv', index=False) +val_data.to_csv('val_data.csv', index=False) +test_data.to_csv('test_data.csv', index=False) \ No newline at end of file diff --git a/ddparser_test.py b/ddparser_test.py new file mode 100644 index 0000000000000000000000000000000000000000..9a4f838f28b92678f50f08b7b69a0d3039610b4e --- /dev/null +++ b/ddparser_test.py @@ -0,0 +1,8 @@ +from ddparser import DDParser +# -*- coding: utf-8 -*- + +ddp = DDParser(use_pos=True) +str = '本文基于单目视觉方法,研究了一种动态环境下的视觉SLAM系统,利用光流检测算法剔除动态特征点,从而利用静态特征点估计相机位姿,实现单目视觉的SLAM定位功能;课题具有较为重要的理论意义与实用价值。论文结构较为严谨,工作量满足学位论文要求,研究成果反映了作者专业理论知识基础较为扎实,具有一定的从事科学研究能力。' +result = ddp.parse(str) +print(result) + diff --git a/demo.py b/demo.py new file mode 100644 index 0000000000000000000000000000000000000000..e8d16ba3cfc40649f3136b09b78c2fc7ff1d2dd2 --- /dev/null +++ b/demo.py @@ -0,0 +1,80 @@ +# import the necessary packages +import json +import os +import random + +import jieba +import pandas as pd +import torch + +from config import device, save_folder, valid_folder, valid_filename +from data_gen import parse_user_reviews, batch2TrainData +from utils import Lang, encode_text + +if __name__ == '__main__': + voc = Lang('data/WORDMAP.json') + print("voc.n_words: " + str(voc.n_words)) + + checkpoint = '{}/BEST_checkpoint.tar'.format(save_folder) # model checkpoint + print('checkpoint: ' + str(checkpoint)) + + # Load model + checkpoint = torch.load(checkpoint) + encoder = checkpoint['encoder'] + print(encoder) + + # Use appropriate device + encoder = encoder.to(device) + + # Set dropout layers to eval mode + encoder.eval() + + filename = os.path.join(valid_folder, valid_filename) + user_reviews = pd.read_csv(filename) + samples = parse_user_reviews(user_reviews) + + #samples = random.sample(samples, 10) #随机选取10个来验证 + pair_batch = [] + result = [] + label=[] + for i, sample in enumerate(samples): + #print(i,sample) + content = sample['content'] + + result.append({'content': content}) + #result.append({'ori_label': ori_label}) #把真实标签写入结果,方便对比查看 + + label_tensor = sample['label_tensor'] + #label.append({'label':label_tensor}) + content = content.strip() + seg_list = jieba.cut(content) + input_indexes = encode_text(voc.word2index, list(seg_list)) + label_tensor = sample['label_tensor'] + pair_batch.append((input_indexes, label_tensor)) + + #print(pair_batch[0]) + test_data = batch2TrainData(pair_batch) + #print(test_data) + input_variable, lengths, _ = test_data + input_variable = input_variable.to(device) + lengths = lengths.to(device) + outputs = encoder(input_variable, lengths) + + _, outputs = torch.max(outputs, 1) #_下划线表示不需要,max函数返回最大值的索引,也就是模型预测的结果 + print(outputs.shape) + print('outputs.size(): ' + str(outputs.size())) + outputs = outputs.cpu().numpy() + + + + for i in range(len(samples)): + result[i]['labels'] = (outputs[i] - 1).tolist() + result[i]['ori_label'] =(samples[i]['label_tensor']-1).tolist() #转换成list方便保存成json,-1是因为做标签映射的时候+1了 + + #print(result[i]) + #print("origin",label[i]['label']-1) + # print("result",result[i]['labels']) + + with open('result.json', 'w') as file: + json.dump(result, file, indent=4, ensure_ascii=False) + diff --git a/extract.py b/extract.py new file mode 100644 index 0000000000000000000000000000000000000000..77d2e72984c4c089418fdaf2a67f6ac0afa4cfac --- /dev/null +++ b/extract.py @@ -0,0 +1,31 @@ +import os +import zipfile + +train_folder = 'data/ai_challenger_fsauor2018_trainingset_20180816' +valid_folder = 'data/ai_challenger_fsauor2018_validationset_20180816' +test_a_folder = 'data/ai_challenger_fsauor2018_testa_20180816' + + +def ensure_folder(folder): + if not os.path.exists(folder): + os.makedirs(folder) + + +def extract(folder): + filename = '{}.zip'.format(folder) + print('Extracting {}...'.format(filename)) + with zipfile.ZipFile(filename, 'r') as zip_ref: + zip_ref.extractall('data') + + +if __name__ == '__main__': + ensure_folder('data') + + if not os.path.isdir(train_folder): + extract(train_folder) + + if not os.path.isdir(valid_folder): + extract(valid_folder) + + if not os.path.isdir(test_a_folder): + extract(test_a_folder) diff --git a/gbk2utf.py b/gbk2utf.py new file mode 100644 index 0000000000000000000000000000000000000000..f980a0584ed056bec41293d7a98abff476a57747 --- /dev/null +++ b/gbk2utf.py @@ -0,0 +1,13 @@ +import codecs + +with codecs.open('./data/valid/val_data.csv', 'r', 'gbk') as f: + content = f.read() + + + +content_utf8 = content.encode('utf-8') + +#print(content) + +with codecs.open('./data/valid/val_data.csv', 'w', 'utf-8') as f: + f.write(content_utf8.decode('utf-8')) \ No newline at end of file diff --git a/jieba_cut.py b/jieba_cut.py new file mode 100644 index 0000000000000000000000000000000000000000..4de3dd0326e6f3a4d0ef765f044245bdf18948c5 --- /dev/null +++ b/jieba_cut.py @@ -0,0 +1,71 @@ +# -*- coding: utf-8 -*- +import jieba +import pandas as pd +import config + +def cut_sentence(text): + sentence_list = [] + seg_list = jieba.cut(text, cut_all=False) + seg_list = [word for word in seg_list if word.strip()] # 去除空字符 + start = 0 + for i, word in enumerate(seg_list): + if word in ['。', '!', '?',';']: + sentence = ''.join(seg_list[start:i+1]) + sentence_list.append(sentence) + start = i + 1 + if start < len(seg_list): + sentence = ''.join(seg_list[start:]) + sentence_list.append(sentence) + return sentence_list + +filename="data/train/train_data.csv" +filename2="data/total.csv" +user_reviews = pd.read_csv(filename) +#print(user_reviews) +max_len=0 +# '''统计下最长句子的长度''' +# for i in range(len(user_reviews)): +# content = user_reviews['content'][i] +# sentences = cut_sentence(content) +# for sentence in sentences: +# length=len(sentence) +# #print(sentence) +# if length>max_len: +# max_len=length +# print("最大句子长度",max_len) +'''统计下前5长的句子的长度''' +lengths = [] # 用于存储句子长度的列表 +conten_lengths=[] +for i in range(len(user_reviews)): + content = user_reviews['content'][i] + con_len=len(content) + conten_lengths.append(con_len) + sentences = cut_sentence(content) + for sentence in sentences: + length = len(sentence) + lengths.append(length) + #print(sentence) + # if length==518: + # print(sentence) +# 对句子长度进行排序 +lengths.sort(reverse=True) +# 获取前5个最长句子的长度 +top_5_lengths = lengths[:300] +# 对整段长度进行排序 +conten_lengths.sort(reverse=True) +# 获取前5个最长段落的长度 +count = 0 # 用于计数大于512的个数 + +for length in conten_lengths: + if length > 512: + count += 1 + +print("大于512的评语数:", count) +top_5_content_lengths = conten_lengths[:300] +print("前5个最长句子的长度:", top_5_lengths) +print("前5个最长段落的长度:", top_5_content_lengths) + + + +# text="再制造是一项融入节约资源、环保等理念的绿色制造模式!随着工业技术不断更新换代,大量机床面临淘汰,机床再制造已经成为我国重点扶持的一项产业。本课题以某废旧机床再制造企业为背景,深入研究了废旧机床再制造的逆向物流过程。论文选题针对性明确,实用性明显。主要研究成果:1、提出了基于GM(1,1)和傅立叶级数的废旧机床回收量预测模型,用傅立叶级数对GM(1,1)模型预测值与原数值的残差序列进行拟合,以提高废旧机床回收量的预测精度。2、构建了基于碳税约束条件下废旧机床再制造逆向物流网络模型,从碳排放总量、网络总成本两个方面对逆向物流网络进行规划设计,并进行了求解。3、运用序关系法与逼近理想解排序法的混合评价方法,建立了第三方物流供应商评价指标和体系。论文对国内外该研究领域的研究现状调研分析较全面,参考文献尚充实,研究工作结合实际,有作者的独立见解。但是论文逻辑性较差,写作不规范,数学模型的推导过程欠严谨,符号变量表示较混乱,写作质量较差,表述不清和错别字很多,标点符号问题较多,实验研究工作量小,英文写作质量较差。论文工作表明该生基本能够掌握本学科领域的基础理论和专业知识,有一定独从事科学研究工作的能力。论文尚能够达到硕士学位论文的水平和要求,同意答辩。" +# sentences = cut_sentence(text) diff --git a/log.txt b/log.txt new file mode 100644 index 0000000000000000000000000000000000000000..cf98f7950054111f9b137a16c846353d20ee7060 --- /dev/null +++ b/log.txt @@ -0,0 +1,287 @@ +voc.n_words: 2365 +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 09:48:24] Epoch: [0][0/230] Batch Time 7.092 (7.092) Loss 1.0954 (0.1095) Accuracy 35.714 (3.571) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 09:55:35] Epoch: [0][0/230] Batch Time 6.703 (6.703) Loss 1.0695 (0.1070) Accuracy 42.857 (4.286) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:24:34] Epoch: [0][0/230] Batch Time 6.640 (6.640) Loss 1.1402 (0.1140) Accuracy 33.036 (3.304) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:25:11] Epoch: [0][0/230] Batch Time 7.017 (7.017) Loss 1.1596 (0.1160) Accuracy 31.250 (3.125) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:26:06] Epoch: [0][0/230] Batch Time 6.974 (6.974) Loss 1.1505 (0.1151) Accuracy 32.143 (3.214) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:32:54] Epoch: [0][0/230] Batch Time 6.740 (6.740) Loss 1.1093 (0.1109) Accuracy 42.857 (4.286) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:49:56] Epoch: [0][0/230] Batch Time 6.495 (6.495) Loss 1.1974 (0.1197) Accuracy 35.714 (3.571) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 10:53:17] Epoch: [0][0/230] Batch Time 6.078 (6.078) Loss 1.2826 (0.1283) Accuracy 25.000 (2.500) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru_parms 0.02 ======================================== +[2024-04-23 13:56:12] Epoch: [0][0/230] Batch Time 6.209 (6.209) Loss 1.1109 (0.1111) Accuracy 33.929 (3.393) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_gru_totalSentence 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_gru_totalSentence 0.02 ======================================== +[2024-04-23 16:00:01] Epoch: [0][0/229] Batch Time 26.299 (26.299) Loss 1.1046 (0.1105) Accuracy 34.821 (3.482) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_gru_totalSentence 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-23 16:03:18] Epoch: [0][0/613] Batch Time 8.473 (8.473) Loss 1.1432 (0.1143) Accuracy 28.571 (2.857) +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-23 16:45:49] Epoch: [0][0/613] Batch Time 6.602 (6.602) Loss 1.0679 (0.1068) Accuracy 30.952 (3.095) +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-23 17:01:25] Epoch: [0][0/613] Batch Time 5.616 (5.616) Loss 1.1528 (0.1153) Accuracy 28.571 (2.857) +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-24 13:59:24] Epoch: [0][0/613] Batch Time 6.501 (6.501) Loss 1.2672 (0.1267) Accuracy 26.190 (2.619) +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-24 14:45:52] Epoch: [0][0/613] Batch Time 12.326 (12.326) Loss 1.3152 (0.1315) Accuracy 23.810 (2.381) +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-24 14:48:30] Epoch: [0][0/613] Batch Time 9.587 (9.587) Loss 1.0519 (0.1052) Accuracy 42.857 (4.286) +voc.n_words: 2365 +Building optimizers ... +================================= Bert 0.02 ======================================== +[2024-04-24 14:50:03] Epoch: [0][0/613] Batch Time 9.403 (9.403) Loss 1.2586 (0.1259) Accuracy 26.190 (2.619) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_CNN_BiGru 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +[2024-04-24 15:41:59] Epoch: [0][0/613] Batch Time 11.057 (11.057) Loss 1.2508 (0.1251) Accuracy 19.048 (1.905) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 1 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 2 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 3 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 4 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 5 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 6 + +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 1 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 2 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 3 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 4 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 5 + +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 1 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 2 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 3 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 4 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 5 + + + * ACCURACY - 0.000, LOSS - 0.000 + + +Epochs since last improvement: 6 + +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +[2024-04-24 16:05:07] Epoch: [0][0/613] Batch Time 6.894 (6.894) Loss 1.2131 (0.1213) Accuracy 33.333 (3.333) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +[2024-04-24 16:05:40] Epoch: [0][0/613] Batch Time 5.485 (5.485) Loss 1.1047 (0.1105) Accuracy 42.857 (4.286) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +voc.n_words: 2365 +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +[2024-05-17 09:18:27] Epoch: [0][0/613] Batch Time 7.952 (7.952) Loss 1.1274 (0.1127) Accuracy 30.952 (3.095) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +[2024-05-17 09:33:19] Epoch: [0][0/613] Batch Time 7.035 (7.035) Loss 1.1134 (0.1113) Accuracy 33.333 (3.333) +voc.n_words: 2365 +Building optimizers ... +================================= Bert_sentence3 0.02 ======================================== +[2024-05-17 09:35:55] Epoch: [0][0/613] Batch Time 7.327 (7.327) Loss 1.0643 (0.1064) Accuracy 47.619 (4.762) diff --git a/model2.py b/model2.py new file mode 100644 index 0000000000000000000000000000000000000000..79c36fb60110ed36deeaa63eca4f2744bddde7b5 --- /dev/null +++ b/model2.py @@ -0,0 +1,298 @@ +import torch +import torch.nn as nn +import torch.nn.functional as F +from torch.autograd import Variable + +import config +from config import num_labels, num_classes, batch_first, pad_size, chunk_size, hidden_size,filter_sizes +from pytorch_pretrained import BertModel, BertTokenizer + +import torch +import torch.nn as nn + +import torch +import torch.nn as nn + +import torch +import torch.nn as nn + +class Bert_add_aspect(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_add_aspect, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + # print(pooled.size()) + out = self.fc(pooled) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out +class NonLocalBlock(nn.Module): + def __init__(self, in_channels, reduction=2): + super(NonLocalBlock, self).__init__() + + self.in_channels = in_channels + self.reduction = reduction + + self.theta = nn.Conv1d(in_channels, in_channels // reduction, kernel_size=1) + self.phi = nn.Conv1d(in_channels, in_channels // reduction, kernel_size=1) + self.g = nn.Conv1d(in_channels, in_channels // reduction, kernel_size=1) + self.out_conv = nn.Conv1d(in_channels // reduction, in_channels, kernel_size=1) + self.softmax = nn.Softmax(dim=-1) + + def forward(self, x): + # Reshape input tensor for convolution + batch_size, seq_length, hidden_dim = x.size() + x = x.view(batch_size, hidden_dim, seq_length) + + # Compute query, key, and value + theta = self.theta(x) + phi = self.phi(x) + g = self.g(x) + + # Compute similarity scores + theta = theta.permute(0, 2, 1) + similarity_scores = torch.matmul(theta, phi) + similarity_scores = similarity_scores / (self.in_channels // self.reduction) ** 0.5 + attention_weights = self.softmax(similarity_scores) + + # Compute the weighted sum of values + g = g.permute(0, 2, 1) + weighted_sum = torch.matmul(attention_weights, g) + weighted_sum = weighted_sum.permute(0, 2, 1) + + # Apply 1x1 convolution and add skip connection + out = self.out_conv(weighted_sum) + out = out + x + + # Reshape output tensor to original shape + out = out.view(batch_size, seq_length, hidden_dim) + + return out + +'''加入了NonLocalBlock''' +class Bert_CNN_CLS_BiGru2(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_CLS_BiGru2, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + self.dropout = nn.Dropout(0.5) + self.non = NonLocalBlock(hidden_size) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.fc = nn.Linear(768+1536, num_labels * num_classes) + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #x = F.adaptive_max_pool1d + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + #print("bert_out",bert_out.size()) + #print("pooled_out",pooled.size()) + bert_pool_out=pooled.unsqueeze(0) + non_out=self.non(bert_out) + #print("non_out",non_out.size()) + out = non_out.unsqueeze(1) #增加一个维度 + cnn_out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + + cnn_out = self.dropout(cnn_out) #不知道在哪里dropout比较好,有待研究 [8,768] + cnn_out=cnn_out.unsqueeze(0) #给CNN的输出增加一个维度,方便拼接,增加后的形状为[1, 8, 768] + #print("cnn_out",cnn_out.size()) + gru_out,gru_h=self.gru(bert_out) + #print("gru_h",gru_h.size()) + split_tensors = torch.split(gru_h, split_size_or_sections=1, dim=0) + #print("split_tensors",split_tensors[0].size()) + cat_output = torch.cat(split_tensors, dim=2) #拼接正向输出和反向输出 + #print('cat_output',cat_output.size()) + #cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + #print("cat_cnn_gru",cat_cnn_gru.size()) + #out = torch.cat([bert_out,out],dim=1) #在第二个维度做拼接 [8,501,768] + #print("cat",out.size()) + #out,h_n = self.gru(out) #[8,501,768] + #h_n=h_n.unsqueeze(0) + #print(h_n.size(),"gru_out") + out = self.fc(cat_cnn_gru) #[768,12*3] + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + #print(out) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + return out + +class Bert_gru_totalSentence(nn.Module): + def __init__(self, input_size, bert_path, hidden_size, n_layers=1, dropout=0): + super(Bert_gru_totalSentence, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru = nn.GRU(input_size=hidden_size, hidden_size=100, num_layers=1, batch_first=True, + bidirectional=False) + self.gru2=nn.GRU(input_size=500*100, hidden_size=hidden_size, num_layers=1, batch_first=True, + bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + def forward(self, input_variable, mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + # print(context) + mask = torch.tensor(mask) # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + # print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask, + output_all_encoded_layers=False) # output_all_encoded_layers=False + #print(_out.size(), "bert_out") + out, h_n = self.gru(_out) + #print(h_n.size(), "hn_out", out.size(), "gru_out") + out = out.reshape(8, 50000) + out, h_n = self.gru2(out) + gru_out2=out.unsqueeze(0) + #print(h_n.size(), "hn_out2", out.size(), "gru_out2") + out = self.fc(gru_out2) + # print(out.size(),"fc_out") + out = out.view((-1, num_classes, num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +class Bert_my_vocab(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_my_vocab, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + # print(pooled.size()) + out = self.fc(pooled) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +'''Bert-CNN-BiGRU冻结bert参数''' +class Bert_CNN_BiGru_parms(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_BiGru_parms, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + #self.att=nn.MultiheadAttention() + # 加载保存的参数字典 + #saved_params = torch.load('models/checkpoint_8_80.956.tar',map_location=torch.device('cpu')) # 假设保存的参数在'saved_model.pth'文件中 + # 创建一个新的空字典,用于存储要加载到模型中的参数 + #new_state_dict = {} + # 从保存的参数字典中筛选出与BERT模型的参数名称匹配的键值对 + # for key in saved_params.keys(): + # if key.startswith('bert.'): + # new_state_dict[key] = saved_params[key] + # self.bert.load_state_dict(new_state_dict) + for param in self.bert.parameters(): + param.requires_grad = False + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + for param in self.convs.parameters(): + param.requires_grad = True + self.dropout = nn.Dropout(0.5) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.fc = nn.Linear(2304, num_labels * num_classes) + for param in self.gru.parameters(): + param.requires_grad = True + for param in self.fc.parameters(): + param.requires_grad = True + + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x",x) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask) # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + #print("bert_out",bert_out.size()) + out = bert_out.unsqueeze(1) #增加一个维度 + #print("bert",out.size()) + cnn_out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + #print("cnn_out",cnn_out.size()) + cnn_out = self.dropout(cnn_out) #不知道在哪里dropout比较好,有待研究 [8,768] + cnn_out=cnn_out.unsqueeze(0) #给CNN的输出增加一个维度,方便拼接,增加后的形状为[1, 8, 768] + gru_out,gru_h=self.gru(bert_out) + #print("gru_h",gru_h.size(),"gru_out",gru_out.size()) + split_tensors = torch.split(gru_h, split_size_or_sections=1, dim=0) + #print("split_tensors",split_tensors[0].size()) + cat_output = torch.cat(split_tensors, dim=2) #拼接正向输出和反向输出 + #print('cat_gru_output',cat_output.size()) + cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + #print("cat_cnn_gru",cat_cnn_gru.size()) + #out = torch.cat([bert_out,out],dim=1) #在第二个维度做拼接 [8,501,768] + #print("cat",out.size()) + #out,h_n = self.gru(out) #[8,501,768] + #h_n=h_n.unsqueeze(0) + #print(h_n.size(),"gru_out") + out = self.fc(cat_cnn_gru) #[768,12*3] + #print("fc_out",out.size()) + out = out.view((-1, num_classes,num_labels)) + #print("view_out",out.size()) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + #print("log_softmax_out",out.size()) + return out \ No newline at end of file diff --git a/models.py b/models.py new file mode 100644 index 0000000000000000000000000000000000000000..74b45a1fd7a94ea986e801b4018fd4424b1209a0 --- /dev/null +++ b/models.py @@ -0,0 +1,873 @@ +import torch +import torch.nn as nn +import torch.nn.functional as F +from torch.autograd import Variable + + +from config import num_labels, num_classes, batch_first, pad_size, chunk_size, hidden_size,filter_sizes +from pytorch_pretrained import BertModel, BertTokenizer + + +class EncoderRNN(nn.Module): + def __init__(self, input_size, hidden_size, n_layers=1, dropout=0): + super(EncoderRNN, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.embedding = nn.Embedding(input_size, hidden_size) + + # Initialize GRU; the input_size and hidden_size params are both set to 'hidden_size' + # because our input size is a word embedding with number of features == hidden_size + self.gru = nn.GRU(hidden_size, hidden_size, n_layers, + dropout=(0 if n_layers == 1 else dropout), bidirectional=True) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + def forward(self, input_seq, input_lengths, hidden=None): + # input_seq = [sent len, batch size] + # Convert word indexes to embeddings + embedded = self.embedding(input_seq) + # embedded = [sent len, batch size, hidden size] + # Pack padded batch of sequences for RNN module + packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths) + # Forward pass through GRU + outputs, hidden = self.gru(packed, hidden) + # Unpack padding + outputs, _ = torch.nn.utils.rnn.pad_packed_sequence(outputs) + # Sum bidirectional GRU outputs + outputs = outputs[:, :, :self.hidden_size] + outputs[:, :, self.hidden_size:] + # outputs = [sent len, batch size, hidden size] + # outputs = outputs[-1] + + # Extract the outputs for the last timestep of each example + idx = (input_lengths - 1).view(-1, 1).expand( + len(input_lengths), outputs.size(2)) + time_dimension = 1 if batch_first else 0 + idx = idx.unsqueeze(time_dimension) + # Shape: (batch_size, rnn_hidden_dim) + outputs = outputs.gather( + time_dimension, Variable(idx)).squeeze(time_dimension) + + # outputs = [batch size, hidden size] + outputs = self.fc(outputs) + # outputs = [batch size, num_labels * num_classes] + outputs = outputs.view((-1, num_classes, num_labels)) + # outputs = [batch size, num_classes, num_labels] + outputs = F.log_softmax(outputs, dim=1) + # outputs = [batch size, num_classes, num_labels] + + # Return output + return outputs + + +class Bert(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + # print(pooled.size()) + out = self.fc(pooled) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +class Bert_sentence(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_sentence, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.bigru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size*2, num_labels * num_classes) + self.att=nn.MultiheadAttention(embed_dim=768,num_heads=8,batch_first=True) + + + def forward(self, input_variable,mask,sentences,sentences_mask, hidden=None): + # samples=samples.T + # print(samples) + #print("sentences_mask",sentences_mask,len(sentences_mask)) + context = input_variable.T # 输入的句子 + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #sentences_mask = torch.tensor(sentences_mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False) #output_all_encoded_layers=False + sentence_feature=[] + for paragraph,sentence_mask in zip(sentences,sentences_mask): + s_pooled_list = [] # 创建一个空列表用于保存 s_pooled + for sentence,sen_mask in zip(paragraph,sentence_mask): + sentence=torch.tensor(sentence).to("cuda") + sen_mask=torch.tensor(sen_mask).to("cuda") + sentence=torch.unsqueeze(sentence,dim=0) + sen_mask=torch.unsqueeze(sen_mask,dim=0) + s_, s_pooled = self.bert(sentence,sen_mask,output_all_encoded_layers=False) + # 将 s_pooled 添加到列表中 + s_pooled_list.append(s_pooled) + #print("s_pooled",s_pooled.size(),s_pooled,"s_",s_.size(),s_) + # 在循环结束后,将 s_pooled_list 中的张量连接为一个张量 + s_pooled_tensor = torch.cat(s_pooled_list, dim=0) + att_out, attention_weights=self.att(s_pooled_tensor,s_pooled_tensor,s_pooled_tensor) + print("att_out",att_out.size(),"attention_weights",attention_weights.size(),attention_weights) + gru_out,h_n=self.bigru(att_out) + sentence_feature.append(h_n) + print("gru_out",gru_out.size(),"h_n", h_n.size()) + sentence_feature_tensor = torch.cat(sentence_feature, dim=0) + #s_, s_pooled = self.bert(sentences,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print("sentence_out",s_pooled) + cat_out=torch.cat((sentence_feature_tensor,pooled),dim=1) + out = self.fc(cat_out) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +'''得到句子的CLS后不使用GRU,而是用最大池化''' +class Bert_sentence3(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_sentence3, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.bigru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + self.att=nn.MultiheadAttention(embed_dim=768,num_heads=12,batch_first=True) + + + def forward(self, input_variable,mask,sentences,sentences_mask, hidden=None): + # samples=samples.T + # print(samples) + #print("sentences_mask",sentences_mask,len(sentences_mask)) + context = input_variable.T # 输入的句子 + mask = torch.tensor(mask) # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #sentences_mask = torch.tensor(sentences_mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False) #output_all_encoded_layers=False + sentence_feature=[] + for paragraph,sentence_mask in zip(sentences,sentences_mask): + s_pooled_list = [] # 创建一个空列表用于保存 s_pooled + for sentence,sen_mask in zip(paragraph,sentence_mask): + sentence=torch.tensor(sentence) + sen_mask=torch.tensor(sen_mask) + sentence=torch.unsqueeze(sentence,dim=0) + sen_mask=torch.unsqueeze(sen_mask,dim=0) + s_, s_pooled = self.bert(sentence,sen_mask,output_all_encoded_layers=False) + # 将 s_pooled 添加到列表中 + s_pooled_list.append(s_pooled) + #print("s_pooled",s_pooled.size(),s_pooled,"s_",s_.size(),s_) + # 在循环结束后,将 s_pooled_list 中的张量连接为一个张量 + s_pooled_tensor = torch.cat(s_pooled_list, dim=0) + att_out, attention_weights=self.att(s_pooled_tensor,s_pooled_tensor,s_pooled_tensor) + # 最大池化操作 + att_out_max, _ = torch.max(att_out, dim=0, keepdim=True) # 在第0维度上获取最大值,并保持维度为[1, 768] + # print("att_out",att_out.size(),"attention_weights",attention_weights.size(),attention_weights) + # gru_out,h_n=self.bigru(att_out) + sentence_feature.append(att_out_max) + sentence_feature_tensor = torch.cat(sentence_feature, dim=0) + #print("sentence_feature_tensor",sentence_feature_tensor.size()) + #s_, s_pooled = self.bert(sentences,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print("sentence_out",s_pooled) + #cat_out=torch.cat((sentence_feature_tensor,pooled),dim=1) + out = self.fc(sentence_feature_tensor) + #print(self.fc) + out = out.view((-1, num_classes,num_labels)) + #print(out.size()) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +class Bert_GRU(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(hidden_size,hidden_size,1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + print(pooled.size()) + _,out = self.gru(pooled) + print(out.size()) + out = self.fc(out) + print(out.size()) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +'''Bert还未池化的输出后面接gru,相当于用bert编码,用gru提起特征''' +class Bert_GRU2(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU2, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + # for param in self.parameters(): + # param.requires_grad = True + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + print(_out.size(),"bert_out") + out,h_n = self.gru(_out) + print(h_n.size(),"hn_out",out.size(),"gru_out") + out = self.fc(h_n) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + + +'''Bert还未池化的输出后面接Bigru,自定义一个可学习的权重参数,用于计算BiGRU前向输出和后向输出在加权求和中的权重''' +class Bert_BiGRU(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_BiGRU, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + #创建一个大小为2的参数,且可以被学习 + self.weights = nn.Parameter(torch.randn(2)) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.Bigru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + self.global_avg_pooling = nn.AdaptiveAvgPool1d(768) + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + Biout,Bih_n = self.Bigru(_out) + # 加权求和前向输出和后向输出 + weighted_sum = self.weights[0] * Bih_n[0] + self.weights[1] * Bih_n[1] + #weighted_output = torch.einsum('sbh,h->sbh', Bih_n, self.weights) + #print(Bih_n.size(),"hn_out",Biout.size(),"gru_out") + #out,h_n = self.gru(_out) + #print(h_n.size(),"hn_out",out.size(),"gru_out") + #out = self.fc(h_n) + Biout = self.fc(weighted_sum) + Biout=Biout.unsqueeze(0) + #print(Biout.size(),"Biout-fc") + #print(out.size(),"fc_out") + Biout = Biout.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(Biout, dim=1) + return out + + +'''Bert编码后用CNN提取特征,CNN层的输出与Bert层输出拼接,再输入到GRU''' +class Bert_CNN_Gru(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_Gru, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + self.dropout = nn.Dropout(0.5) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + #print("bert_out",bert_out.size()) + out = bert_out.unsqueeze(1) #增加一个维度 + out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + out = self.dropout(out) #不知道在哪里dropout比较好,有待研究 [8,768] + out=out.unsqueeze(1) #[8,1,768]在第二维度上添加一个维度,以跟bert的输出做拼接cat + #print("dropout",out.size()) + out = torch.cat([bert_out,out],dim=1) #在第二个维度做拼接 [8,501,768] + #print("cat",out.size()) + out,h_n = self.gru(out) #[8,501,768] + #h_n=h_n.unsqueeze(0) + #print(h_n.size(),"gru_out") + out = self.fc(h_n) #[768,12*3] + print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + print(out) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + return out + + +'''Bert-CNN-BiGRU''' +class Bert_CNN_BiGru(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_BiGru, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + self.dropout = nn.Dropout(0.5) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.fc = nn.Linear(2304, num_labels * num_classes) + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + print("bert_out",bert_out.size()) + out = bert_out.unsqueeze(1) #增加一个维度 + cnn_out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + print("cnn_out",cnn_out.size()) + cnn_out = self.dropout(cnn_out) #不知道在哪里dropout比较好,有待研究 [8,768] + cnn_out=cnn_out.unsqueeze(0) #给CNN的输出增加一个维度,方便拼接,增加后的形状为[1, 8, 768] + gru_out,gru_h=self.gru(bert_out) + print("gru_h",gru_h.size(),"gru_out",gru_out.size()) + split_tensors = torch.split(gru_h, split_size_or_sections=1, dim=0) + #print("split_tensors",split_tensors[0].size()) + cat_output = torch.cat(split_tensors, dim=2) #拼接正向输出和反向输出 + print('cat_gru_output',cat_output.size()) + cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + print("cat_cnn_gru",cat_cnn_gru.size()) + #out = torch.cat([bert_out,out],dim=1) #在第二个维度做拼接 [8,501,768] + #print("cat",out.size()) + #out,h_n = self.gru(out) #[8,501,768] + #h_n=h_n.unsqueeze(0) + #print(h_n.size(),"gru_out") + out = self.fc(cat_cnn_gru) #[768,12*3] + print("fc_out",out.size()) + out = out.view((-1, num_classes,num_labels)) + print("view_out",out.size()) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + print("log_softmax_out",out.size()) + return out + + +'''Bert-CNN-CLS-BiGRU''' +class Bert_CNN_CLS_BiGru(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_CLS_BiGru, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + self.dropout = nn.Dropout(0.5) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.fc = nn.Linear(3072, num_labels * num_classes) + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + #print("bert_out",bert_out.size()) + #print("pooled_out",pooled.size()) + bert_pool_out=pooled.unsqueeze(0) + out = bert_out.unsqueeze(1) #增加一个维度 + cnn_out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + #print("cnn_out",cnn_out.size()) + cnn_out = self.dropout(cnn_out) #不知道在哪里dropout比较好,有待研究 [8,768] + cnn_out=cnn_out.unsqueeze(0) #给CNN的输出增加一个维度,方便拼接,增加后的形状为[1, 8, 768] + gru_out,gru_h=self.gru(bert_out) + #print("gru_h",gru_h.size()) + split_tensors = torch.split(gru_h, split_size_or_sections=1, dim=0) + #print("split_tensors",split_tensors[0].size()) + cat_output = torch.cat(split_tensors, dim=2) #拼接正向输出和反向输出 + #print('cat_output',cat_output.size()) + #cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + cat_cnn_gru=torch.cat([cat_output,cnn_out,bert_pool_out],dim=2) + #print("cat_cnn_gru",cat_cnn_gru.size()) + #out = torch.cat([bert_out,out],dim=1) #在第二个维度做拼接 [8,501,768] + #print("cat",out.size()) + #out,h_n = self.gru(out) #[8,501,768] + #h_n=h_n.unsqueeze(0) + #print(h_n.size(),"gru_out") + out = self.fc(cat_cnn_gru) #[768,12*3] + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + #print(out) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + return out + + +'''Bert-CNN-CLS-BiGRU,Self-attention''' +class Bert_CNN_CLS_BiGru1(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_CNN_CLS_BiGru1, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.convs = nn.ModuleList( + [nn.Conv2d(in_channels=1, out_channels=256, kernel_size=(k, hidden_size)) for k in filter_sizes]) + self.dropout = nn.Dropout(0.5) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=True) + self.attention=nn.MultiheadAttention(3072,num_heads=6) #接在双头GRU后面,让模型自动注意哪部分权重比较重要 + self.fc = nn.Linear(3072, num_labels * num_classes) + + def conv_and_pool(self, x, conv): + x=conv(x) + #print("conv",x.size()) + x = F.relu(x).squeeze(3) + #print("x2",x.size()) + x = F.max_pool1d(x, x.size(2)).squeeze(2) + #print("max_pool1d",x.size()) + return x + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + bert_out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False bert_out=[8,500,768] + #print(_out.size(),"bert_out") + #print("bert_out",bert_out.size()) + #print("pooled_out",pooled.size()) + bert_pool_out=pooled.unsqueeze(0) + out = bert_out.unsqueeze(1) #增加一个维度 + cnn_out = torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) + #print("cnn_out",cnn_out.size()) + cnn_out = self.dropout(cnn_out) #不知道在哪里dropout比较好,有待研究 [8,768] + cnn_out=cnn_out.unsqueeze(0) #给CNN的输出增加一个维度,方便拼接,增加后的形状为[1, 8, 768] + gru_out,gru_h=self.gru(bert_out) + #print("gru_h",gru_h.size()) #[2, 8, 768] + split_tensors = torch.split(gru_h, split_size_or_sections=1, dim=0) + #print("split_tensors",split_tensors[0].size()) + cat_output = torch.cat(split_tensors, dim=2) #拼接正向输出和反向输出 + #print('cat_output',cat_output.size()) + #cat_cnn_gru=torch.cat([cat_output,cnn_out],dim=2) + cat_cnn_gru=torch.cat([cat_output,cnn_out,bert_pool_out],dim=2) #拼接BiGRU的输出和CNN的输出以及bert_cls的输出 + #print("cat_cnn_gru",cat_cnn_gru.size()) + att_out,_=self.attention(cat_cnn_gru,cat_cnn_gru,cat_cnn_gru) #[1, 8, 3072] + #print("att_out",att_out.size()) + out = self.fc(att_out) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + #print(out) + + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) #[0,0,1] [1,0,0] [1,0,01] + return out + +'''attention,准确率比较低(bert-attention-gru)''' +class Bert_GRU_attention(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU_attention, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.attention=nn.MultiheadAttention(embed_dim=768,num_heads=8,batch_first=True) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + _out,attention_weights =self.attention(_out,_out,_out) + print(_out.size(),"bert_out") + out,h_n = self.gru(_out) + print(h_n.size(),"hn_out",out.size(),"gru_out") + out = self.fc(h_n) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + + +'''attention,(bert-gru-attention)''' +class Bert_GRU_attention(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU_attention, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.attention=nn.MultiheadAttention(embed_dim=768,num_heads=8,batch_first=True) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #_out,attention_weights =self.attention(_out,_out,_out) + print(_out.size(),"bert_out") + out,h_n = self.gru(_out) + print(h_n.size(),"hn_out",out.size(),"gru_out") + out = self.fc(h_n) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +'''bert未池化用BiGru提取特征''' +class Bert_BiGRU1(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_BiGRU1, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + #self.gru=nn.GRU(input_size=pad_size * hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + #self.attention=nn.MultiheadAttention() + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + print(_out,"bert_out") #(10,350,768) + #out = _out.reshape(chunk_size, pad_size * hidden_size) + out,h_n = self.gru(_out) + #print(out.size(),"gru_out",h_n.size(),"h_n") #(10,350,768*2) + print(out,"gru_out",h_n,"h_n") #(10,350,768*2) + out = self.fc(h_n) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + + +'''Bert还未池化的输出后面接gru,相当于用bert编码,用gru提起特征,再与cls做残差连接''' +class Bert_GRU3(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU3, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + out,h_n = self.gru(_out) + out=h_n+pooled + #print(out.size(),"gru_out") + out = self.fc(out) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + #out = F.softmax(out, dim=1) + return out + +'''尝试将方面词编码进bert''' +class Bert_GRU4(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU4, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(input_size=hidden_size,hidden_size=hidden_size,num_layers=1,batch_first=True,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _out, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(_out.size(),"bert_out") + out,h_n = self.gru(_out) + out=h_n+pooled + #print(out.size(),"gru_out") + out = self.fc(out) + #print(out.size(),"fc_out") + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + #out = F.softmax(out, dim=1) + return out + +'''先用bert编码,再用GRU对编码进行特征提起,最后将bert编码和gru输出做残差连接''' +class Bert_GRU_Add(nn.Module): + def __init__(self, input_size, bert_path,hidden_size, n_layers=1, dropout=0): + super(Bert_GRU_Add, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.bert = BertModel.from_pretrained(bert_path) + for param in self.bert.parameters(): + param.requires_grad = True + self.gru=nn.GRU(hidden_size,hidden_size,1,bidirectional=False) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + + + def forward(self, input_variable,mask, hidden=None): + # samples=samples.T + # print(samples) + context = input_variable.T # 输入的句子 + #print(context) + mask = torch.tensor(mask).to("cuda") # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0] + #print('mask',mask) + _, pooled = self.bert(context, attention_mask=mask,output_all_encoded_layers=False ) #output_all_encoded_layers=False + #print(pooled.size()) + out,_ = self.gru(pooled) + out=out+pooled + out = self.fc(out) + out = out.view((-1, num_classes,num_labels)) + # outputs = [batch size, num_classes, num_labels] + out = F.log_softmax(out, dim=1) + return out + +class BiGRU(nn.Module): + def __init__(self, input_size, hidden_size, num_layers,dropout, bidirectional=True): + super(BiGRU, self).__init__() + self.hidden_size = hidden_size + self.num_layers = num_layers + self.bidirectional = bidirectional + + self.forward_gru = nn.GRU(input_size, hidden_size, num_layers,dropout=dropout, bidirectional=bidirectional) + self.backward_gru = nn.GRU(input_size, hidden_size, num_layers,dropout=dropout, bidirectional=bidirectional) + + def forward(self, input): + forward_output, _ = self.forward_gru(input) + + # Reverse the input sequence + reversed_input = torch.flip(input, [0]) + backward_output, _ = self.backward_gru(reversed_input) + + if self.bidirectional: + # Concatenate forward and backward outputs along the last dimension + output = torch.cat([forward_output, torch.flip(backward_output, [0])], dim=-1) + else: + # Use only the forward output + output = forward_output + + return output +class MyEncoderRNN(nn.Module): + def __init__(self, input_size, hidden_size, n_layers=1, dropout=0): + super(MyEncoderRNN, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.embedding = nn.Embedding(input_size, hidden_size) + # Initialize GRU; the input_size and hidden_size params are both set to 'hidden_size' + # because our input size is a word embedding with number of features == hidden_size + self.gru = nn.GRU(hidden_size, hidden_size, n_layers, + dropout=(0 if n_layers == 1 else dropout), bidirectional=True) + self.lstm=nn.LSTM(hidden_size,hidden_size) + self.rnn=nn.RNN(hidden_size,hidden_size) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + def forward(self, input_seq, input_lengths, hidden=None): + # input_seq = [sent len, batch size] + # Convert word indexes to embeddings + embedded = self.embedding(input_seq) + # embedded = [sent len, batch size, hidden size] + # Pack padded batch of sequences for RNN module + packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths) + # Forward pass through GRU + outputs, hidden = self.gru(packed, hidden) + + # Unpack padding + outputs, _ = torch.nn.utils.rnn.pad_packed_sequence(outputs) + # Sum bidirectional GRU outputs + outputs = outputs[:, :, :self.hidden_size] + outputs[:, :, self.hidden_size:] + + outputs,hidden_lstm = self.lstm(outputs) + outputs,_=self.rnn(outputs) + #print("type", type(outputs)) + # outputs = [sent len, batch size, hidden size] + # outputs = outputs[-1] + + # Extract the outputs for the last timestep of each example + idx = (input_lengths - 1).view(-1, 1).expand( + len(input_lengths), outputs.size(2)) + time_dimension = 1 if batch_first else 0 + idx = idx.unsqueeze(time_dimension) + # Shape: (batch_size, rnn_hidden_dim) + outputs = outputs.gather( + time_dimension, Variable(idx)).squeeze(time_dimension) + + # outputs = [batch size, hidden size] + outputs = self.fc(outputs) + # outputs = [batch size, num_labels * num_classes] + outputs = outputs.view((-1, num_classes, num_labels)) + # outputs = [batch size, num_classes, num_labels] + outputs = F.log_softmax(outputs, dim=1) + # outputs = [batch size, num_classes, num_labels] + + # Return output + return outputs + + +class AttentionEncoderRNN(nn.Module): + def __init__(self, input_size, hidden_size, n_layers=1, dropout=0): + super(AttentionEncoderRNN, self).__init__() + self.n_layers = n_layers + self.hidden_size = hidden_size + self.embedding = nn.Embedding(input_size, hidden_size) + # Initialize GRU; the input_size and hidden_size params are both set to 'hidden_size' + # because our input size is a word embedding with number of features == hidden_size + self.gru = nn.GRU(hidden_size, hidden_size, n_layers, + dropout=(0 if n_layers == 1 else dropout), bidirectional=True) + self.att=nn.MultiheadAttention(hidden_size, 8, batch_first=True) + self.fc = nn.Linear(hidden_size, num_labels * num_classes) + def forward(self, input_seq, input_lengths, hidden=None): + # input_seq = [sent len, batch size] + # Convert word indexes to embeddings + embedded = self.embedding(input_seq) + #print("embedded",embedded.size(),embedded) + + # embedded = [sent len, batch size, hidden size] + # Pack padded batch of sequences for RNN module + packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths) + outputs, _ = torch.nn.utils.rnn.pad_packed_sequence(packed) + att,_ = self.att(outputs, outputs, outputs) + # Forward pass through GRU + outputs, hidden = self.gru(att, hidden) + # Unpack padding + #outputs, _ = torch.nn.utils.rnn.pad_packed_sequence(outputs) + # Sum bidirectional GRU outputs + outputs = outputs[:, :, :self.hidden_size] + outputs[:, :, self.hidden_size:] + #print('outputs',outputs.size(),outputs) + #print("type", type(outputs)) + # outputs = [sent len, batch size, hidden size] + # outputs = outputs[-1] + + # Extract the outputs for the last timestep of each example + idx = (input_lengths - 1).view(-1, 1).expand( + len(input_lengths), outputs.size(2)) + time_dimension = 1 if batch_first else 0 + idx = idx.unsqueeze(time_dimension) + # Shape: (batch_size, rnn_hidden_dim) + outputs = outputs.gather( + time_dimension, Variable(idx)).squeeze(time_dimension) + + # outputs = [batch size, hidden size] + outputs = self.fc(outputs) + # outputs = [batch size, num_labels * num_classes] + outputs = outputs.view((-1, num_classes, num_labels)) + # outputs = [batch size, num_classes, num_labels] + outputs = F.log_softmax(outputs, dim=1) + # outputs = [batch size, num_classes, num_labels] + + # Return output + return outputs diff --git a/pre_process.py b/pre_process.py new file mode 100644 index 0000000000000000000000000000000000000000..09496d235fb9563099996313129cdb9f51cc87c4 --- /dev/null +++ b/pre_process.py @@ -0,0 +1,39 @@ +import json +from collections import Counter + +import jieba +from tqdm import tqdm + +from config import * +from utils import parse_user_reviews + + +def build_wordmap(contents): + word_freq = Counter() + + for sentence in tqdm(contents): + seg_list = jieba.cut(sentence.strip()) + # Update word frequency + word_freq.update(list(seg_list)) + + # Create word map + words = [w for w in word_freq.keys() if word_freq[w] > min_word_freq] + word_map = {k: v + 4 for v, k in enumerate(words)} + word_map[''] = 0 + word_map[''] = 1 + word_map[''] = 2 + word_map[''] = 3 + print('len(word_map): ' + str(len(word_map))) + print(words[:10]) + + with open('data/WORDMAP.json', 'w') as file: + json.dump(word_map, file, indent=4) + + +if __name__ == '__main__': + user_reviews = parse_user_reviews('train') + print(user_reviews) + print(user_reviews.columns) + build_wordmap(user_reviews['content']) + + parse_user_reviews('valid') diff --git a/pytorch_pretrained/__init__.py b/pytorch_pretrained/__init__.py new file mode 100644 index 0000000000000000000000000000000000000000..99706fde4366d4b458ee64d0dc450d92a4cddd6e --- /dev/null +++ b/pytorch_pretrained/__init__.py @@ -0,0 +1,24 @@ +__version__ = "0.6.2" +from .tokenization import BertTokenizer, BasicTokenizer, WordpieceTokenizer +from .tokenization_openai import OpenAIGPTTokenizer +from .tokenization_transfo_xl import (TransfoXLTokenizer, TransfoXLCorpus) +from .tokenization_gpt2 import GPT2Tokenizer + +from .modeling import (BertConfig, BertModel, BertForPreTraining, + BertForMaskedLM, BertForNextSentencePrediction, + BertForSequenceClassification, BertForMultipleChoice, + BertForTokenClassification, BertForQuestionAnswering, + load_tf_weights_in_bert) +from .modeling_openai import (OpenAIGPTConfig, OpenAIGPTModel, + OpenAIGPTLMHeadModel, OpenAIGPTDoubleHeadsModel, + load_tf_weights_in_openai_gpt) +from .modeling_transfo_xl import (TransfoXLConfig, TransfoXLModel, TransfoXLLMHeadModel, + load_tf_weights_in_transfo_xl) +from .modeling_gpt2 import (GPT2Config, GPT2Model, + GPT2LMHeadModel, GPT2DoubleHeadsModel, + load_tf_weights_in_gpt2) + +from .optimization import BertAdam +from .optimization_openai import OpenAIAdam + +from .file_utils import PYTORCH_PRETRAINED_BERT_CACHE, cached_path, WEIGHTS_NAME, CONFIG_NAME diff --git a/pytorch_pretrained/__main__.py b/pytorch_pretrained/__main__.py new file mode 100644 index 0000000000000000000000000000000000000000..a2aae9e9ce9d9610bb804525b8ee3c009801bc0b --- /dev/null +++ b/pytorch_pretrained/__main__.py @@ -0,0 +1,83 @@ +# coding: utf8 +def main(): + import sys + if (len(sys.argv) != 4 and len(sys.argv) != 5) or sys.argv[1] not in [ + "convert_tf_checkpoint_to_pytorch", + "convert_openai_checkpoint", + "convert_transfo_xl_checkpoint", + "convert_gpt2_checkpoint", + ]: + print( + "Should be used as one of: \n" + ">> `pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch TF_CHECKPOINT TF_CONFIG PYTORCH_DUMP_OUTPUT`, \n" + ">> `pytorch_pretrained_bert convert_openai_checkpoint OPENAI_GPT_CHECKPOINT_FOLDER_PATH PYTORCH_DUMP_OUTPUT [OPENAI_GPT_CONFIG]`, \n" + ">> `pytorch_pretrained_bert convert_transfo_xl_checkpoint TF_CHECKPOINT_OR_DATASET PYTORCH_DUMP_OUTPUT [TF_CONFIG]` or \n" + ">> `pytorch_pretrained_bert convert_gpt2_checkpoint TF_CHECKPOINT PYTORCH_DUMP_OUTPUT [GPT2_CONFIG]`") + else: + if sys.argv[1] == "convert_tf_checkpoint_to_pytorch": + try: + from .convert_tf_checkpoint_to_pytorch import convert_tf_checkpoint_to_pytorch + except ImportError: + print("pytorch_pretrained_bert can only be used from the commandline to convert TensorFlow models in PyTorch, " + "In that case, it requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + + if len(sys.argv) != 5: + # pylint: disable=line-too-long + print("Should be used as `pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch TF_CHECKPOINT TF_CONFIG PYTORCH_DUMP_OUTPUT`") + else: + PYTORCH_DUMP_OUTPUT = sys.argv.pop() + TF_CONFIG = sys.argv.pop() + TF_CHECKPOINT = sys.argv.pop() + convert_tf_checkpoint_to_pytorch(TF_CHECKPOINT, TF_CONFIG, PYTORCH_DUMP_OUTPUT) + elif sys.argv[1] == "convert_openai_checkpoint": + from .convert_openai_checkpoint_to_pytorch import convert_openai_checkpoint_to_pytorch + OPENAI_GPT_CHECKPOINT_FOLDER_PATH = sys.argv[2] + PYTORCH_DUMP_OUTPUT = sys.argv[3] + if len(sys.argv) == 5: + OPENAI_GPT_CONFIG = sys.argv[4] + else: + OPENAI_GPT_CONFIG = "" + convert_openai_checkpoint_to_pytorch(OPENAI_GPT_CHECKPOINT_FOLDER_PATH, + OPENAI_GPT_CONFIG, + PYTORCH_DUMP_OUTPUT) + elif sys.argv[1] == "convert_transfo_xl_checkpoint": + try: + from .convert_transfo_xl_checkpoint_to_pytorch import convert_transfo_xl_checkpoint_to_pytorch + except ImportError: + print("pytorch_pretrained_bert can only be used from the commandline to convert TensorFlow models in PyTorch, " + "In that case, it requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + + if 'ckpt' in sys.argv[2].lower(): + TF_CHECKPOINT = sys.argv[2] + TF_DATASET_FILE = "" + else: + TF_DATASET_FILE = sys.argv[2] + TF_CHECKPOINT = "" + PYTORCH_DUMP_OUTPUT = sys.argv[3] + if len(sys.argv) == 5: + TF_CONFIG = sys.argv[4] + else: + TF_CONFIG = "" + convert_transfo_xl_checkpoint_to_pytorch(TF_CHECKPOINT, TF_CONFIG, PYTORCH_DUMP_OUTPUT, TF_DATASET_FILE) + else: + try: + from .convert_gpt2_checkpoint_to_pytorch import convert_gpt2_checkpoint_to_pytorch + except ImportError: + print("pytorch_pretrained_bert can only be used from the commandline to convert TensorFlow models in PyTorch, " + "In that case, it requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + + TF_CHECKPOINT = sys.argv[2] + PYTORCH_DUMP_OUTPUT = sys.argv[3] + if len(sys.argv) == 5: + TF_CONFIG = sys.argv[4] + else: + TF_CONFIG = "" + convert_gpt2_checkpoint_to_pytorch(TF_CHECKPOINT, TF_CONFIG, PYTORCH_DUMP_OUTPUT) +if __name__ == '__main__': + main() diff --git a/pytorch_pretrained/__pycache__/__init__.cpython-37.pyc b/pytorch_pretrained/__pycache__/__init__.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..69f8bd7804a9c1bec19b353979cc46b2cf6b51ae Binary files /dev/null and b/pytorch_pretrained/__pycache__/__init__.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/__init__.cpython-38.pyc b/pytorch_pretrained/__pycache__/__init__.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..af185b7633298c2ae09b8d5592f820061360375b Binary files /dev/null and b/pytorch_pretrained/__pycache__/__init__.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/file_utils.cpython-37.pyc b/pytorch_pretrained/__pycache__/file_utils.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..8a92911ff74fc8a13a0a7c6698dbc4e8aa78f644 Binary files /dev/null and b/pytorch_pretrained/__pycache__/file_utils.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/file_utils.cpython-38.pyc b/pytorch_pretrained/__pycache__/file_utils.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..8399f0dd78256c53ae2bfbe9296102e35d58096d Binary files /dev/null and b/pytorch_pretrained/__pycache__/file_utils.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling.cpython-37.pyc b/pytorch_pretrained/__pycache__/modeling.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..14ffef7b50513a8059de9aef3163de0505dc2bde Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling.cpython-38.pyc b/pytorch_pretrained/__pycache__/modeling.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..a9903a7b63343bfe68cad7f2f42cb0aeb484e538 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-37.pyc b/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..1ec845698d84e9d7c182ffe4edad7f962c477a5e Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-38.pyc b/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..d601c369e59e8f7cbd911563382df40983b63fd7 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_gpt2.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_openai.cpython-37.pyc b/pytorch_pretrained/__pycache__/modeling_openai.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..70c33e9ca5662490da61aa834ef59c8d3ac7e1f6 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_openai.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_openai.cpython-38.pyc b/pytorch_pretrained/__pycache__/modeling_openai.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..a591b725a7202cfc7d4f3e3caabcf4bfb99b93f2 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_openai.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-37.pyc b/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..f99a88293a2cd0e46f38d42b19f9f0b9d753cb01 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-38.pyc b/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..a3e95ee33fe5078e556d6afa6ca1e27ab8f7942a Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_transfo_xl.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-37.pyc b/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..08fe7480d7ee2c8fb231453767a8a44de79255f4 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-38.pyc b/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..3bec56119ed18728665df5ededcdd7efa39b0b80 Binary files /dev/null and b/pytorch_pretrained/__pycache__/modeling_transfo_xl_utilities.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/optimization.cpython-37.pyc b/pytorch_pretrained/__pycache__/optimization.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..687d06b104b0b2d2bad65eac0d90eedec4f3f25d Binary files /dev/null and b/pytorch_pretrained/__pycache__/optimization.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/optimization.cpython-38.pyc b/pytorch_pretrained/__pycache__/optimization.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..61ee136d8d429668320562a5ff008a84aa5aa4fd Binary files /dev/null and b/pytorch_pretrained/__pycache__/optimization.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/optimization_openai.cpython-37.pyc b/pytorch_pretrained/__pycache__/optimization_openai.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..268a18d56b4fafc78d197796d7a1025dd72d5cf0 Binary files /dev/null and b/pytorch_pretrained/__pycache__/optimization_openai.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/optimization_openai.cpython-38.pyc b/pytorch_pretrained/__pycache__/optimization_openai.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..2b4cc2925eaad720d475a12ae92175ed65ed09a4 Binary files /dev/null and b/pytorch_pretrained/__pycache__/optimization_openai.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization.cpython-37.pyc b/pytorch_pretrained/__pycache__/tokenization.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..5fc719ce8b2cc1c2a0a2d48ecb44f4ac7c975ff9 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization.cpython-38.pyc b/pytorch_pretrained/__pycache__/tokenization.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..de7cdf607f5a0663f838241a35152f7163a86504 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-37.pyc b/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..4c3386b71acf63bb9297c16c04d37faabab8f7f1 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-38.pyc b/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..92af14abc81f8376b4b38a6e8429c3de18147ae7 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_gpt2.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_openai.cpython-37.pyc b/pytorch_pretrained/__pycache__/tokenization_openai.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..abaac42eebdc748da22d2aa71c9abbd8051e0569 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_openai.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_openai.cpython-38.pyc b/pytorch_pretrained/__pycache__/tokenization_openai.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..d69265c74f24d5aff48123cc5dbeb17094c0fbcd Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_openai.cpython-38.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-37.pyc b/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-37.pyc new file mode 100644 index 0000000000000000000000000000000000000000..aca14cf124eb1bd5e9d035e32faa8bdea2f33906 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-37.pyc differ diff --git a/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-38.pyc b/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-38.pyc new file mode 100644 index 0000000000000000000000000000000000000000..d6ae8ac4dad586b512fe14e0dca9030d19285b94 Binary files /dev/null and b/pytorch_pretrained/__pycache__/tokenization_transfo_xl.cpython-38.pyc differ diff --git a/pytorch_pretrained/convert_gpt2_checkpoint_to_pytorch.py b/pytorch_pretrained/convert_gpt2_checkpoint_to_pytorch.py new file mode 100644 index 0000000000000000000000000000000000000000..51d52a6694f6e32a97c0af4d7b710fa96a10c525 --- /dev/null +++ b/pytorch_pretrained/convert_gpt2_checkpoint_to_pytorch.py @@ -0,0 +1,72 @@ +# coding=utf-8 +# Copyright 2018 The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Convert OpenAI GPT checkpoint.""" + +from __future__ import absolute_import, division, print_function + +import argparse +from io import open + +import torch + +from pytorch_pretrained_bert.modeling_gpt2 import (CONFIG_NAME, WEIGHTS_NAME, + GPT2Config, + GPT2Model, + load_tf_weights_in_gpt2) + + +def convert_gpt2_checkpoint_to_pytorch(gpt2_checkpoint_path, gpt2_config_file, pytorch_dump_folder_path): + # Construct model + if gpt2_config_file == "": + config = GPT2Config() + else: + config = GPT2Config(gpt2_config_file) + model = GPT2Model(config) + + # Load weights from numpy + load_tf_weights_in_gpt2(model, gpt2_checkpoint_path) + + # Save pytorch-model + pytorch_weights_dump_path = pytorch_dump_folder_path + '/' + WEIGHTS_NAME + pytorch_config_dump_path = pytorch_dump_folder_path + '/' + CONFIG_NAME + print("Save PyTorch model to {}".format(pytorch_weights_dump_path)) + torch.save(model.state_dict(), pytorch_weights_dump_path) + print("Save configuration file to {}".format(pytorch_config_dump_path)) + with open(pytorch_config_dump_path, "w", encoding="utf-8") as f: + f.write(config.to_json_string()) + + +if __name__ == "__main__": + parser = argparse.ArgumentParser() + ## Required parameters + parser.add_argument("--gpt2_checkpoint_path", + default = None, + type = str, + required = True, + help = "Path the TensorFlow checkpoint path.") + parser.add_argument("--pytorch_dump_folder_path", + default = None, + type = str, + required = True, + help = "Path to the output PyTorch model.") + parser.add_argument("--gpt2_config_file", + default = "", + type = str, + help = "An optional config json file corresponding to the pre-trained OpenAI model. \n" + "This specifies the model architecture.") + args = parser.parse_args() + convert_gpt2_checkpoint_to_pytorch(args.gpt2_checkpoint_path, + args.gpt2_config_file, + args.pytorch_dump_folder_path) diff --git a/pytorch_pretrained/convert_openai_checkpoint_to_pytorch.py b/pytorch_pretrained/convert_openai_checkpoint_to_pytorch.py new file mode 100644 index 0000000000000000000000000000000000000000..566008aaa0b3f45ceca515e98847bdfe4535724b --- /dev/null +++ b/pytorch_pretrained/convert_openai_checkpoint_to_pytorch.py @@ -0,0 +1,72 @@ +# coding=utf-8 +# Copyright 2018 The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Convert OpenAI GPT checkpoint.""" + +from __future__ import absolute_import, division, print_function + +import argparse +from io import open + +import torch + +from pytorch_pretrained_bert.modeling_openai import (CONFIG_NAME, WEIGHTS_NAME, + OpenAIGPTConfig, + OpenAIGPTModel, + load_tf_weights_in_openai_gpt) + + +def convert_openai_checkpoint_to_pytorch(openai_checkpoint_folder_path, openai_config_file, pytorch_dump_folder_path): + # Construct model + if openai_config_file == "": + config = OpenAIGPTConfig() + else: + config = OpenAIGPTConfig(openai_config_file) + model = OpenAIGPTModel(config) + + # Load weights from numpy + load_tf_weights_in_openai_gpt(model, openai_checkpoint_folder_path) + + # Save pytorch-model + pytorch_weights_dump_path = pytorch_dump_folder_path + '/' + WEIGHTS_NAME + pytorch_config_dump_path = pytorch_dump_folder_path + '/' + CONFIG_NAME + print("Save PyTorch model to {}".format(pytorch_weights_dump_path)) + torch.save(model.state_dict(), pytorch_weights_dump_path) + print("Save configuration file to {}".format(pytorch_config_dump_path)) + with open(pytorch_config_dump_path, "w", encoding="utf-8") as f: + f.write(config.to_json_string()) + + +if __name__ == "__main__": + parser = argparse.ArgumentParser() + ## Required parameters + parser.add_argument("--openai_checkpoint_folder_path", + default = None, + type = str, + required = True, + help = "Path the TensorFlow checkpoint path.") + parser.add_argument("--pytorch_dump_folder_path", + default = None, + type = str, + required = True, + help = "Path to the output PyTorch model.") + parser.add_argument("--openai_config_file", + default = "", + type = str, + help = "An optional config json file corresponding to the pre-trained OpenAI model. \n" + "This specifies the model architecture.") + args = parser.parse_args() + convert_openai_checkpoint_to_pytorch(args.openai_checkpoint_folder_path, + args.openai_config_file, + args.pytorch_dump_folder_path) diff --git a/pytorch_pretrained/convert_tf_checkpoint_to_pytorch.py b/pytorch_pretrained/convert_tf_checkpoint_to_pytorch.py new file mode 100644 index 0000000000000000000000000000000000000000..13d96384fdae76631279ded5e4307363ee2b2de5 --- /dev/null +++ b/pytorch_pretrained/convert_tf_checkpoint_to_pytorch.py @@ -0,0 +1,66 @@ +# coding=utf-8 +# Copyright 2018 The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Convert BERT checkpoint.""" + +from __future__ import absolute_import +from __future__ import division +from __future__ import print_function + +import os +import re +import argparse +import tensorflow as tf +import torch +import numpy as np + +from pytorch_pretrained_bert.modeling import BertConfig, BertForPreTraining, load_tf_weights_in_bert + +def convert_tf_checkpoint_to_pytorch(tf_checkpoint_path, bert_config_file, pytorch_dump_path): + # Initialise PyTorch model + config = BertConfig.from_json_file(bert_config_file) + print("Building PyTorch model from configuration: {}".format(str(config))) + model = BertForPreTraining(config) + + # Load weights from tf checkpoint + load_tf_weights_in_bert(model, tf_checkpoint_path) + + # Save pytorch-model + print("Save PyTorch model to {}".format(pytorch_dump_path)) + torch.save(model.state_dict(), pytorch_dump_path) + + +if __name__ == "__main__": + parser = argparse.ArgumentParser() + ## Required parameters + parser.add_argument("--tf_checkpoint_path", + default = None, + type = str, + required = True, + help = "Path the TensorFlow checkpoint path.") + parser.add_argument("--bert_config_file", + default = None, + type = str, + required = True, + help = "The config json file corresponding to the pre-trained BERT model. \n" + "This specifies the model architecture.") + parser.add_argument("--pytorch_dump_path", + default = None, + type = str, + required = True, + help = "Path to the output PyTorch model.") + args = parser.parse_args() + convert_tf_checkpoint_to_pytorch(args.tf_checkpoint_path, + args.bert_config_file, + args.pytorch_dump_path) diff --git a/pytorch_pretrained/convert_transfo_xl_checkpoint_to_pytorch.py b/pytorch_pretrained/convert_transfo_xl_checkpoint_to_pytorch.py new file mode 100644 index 0000000000000000000000000000000000000000..8d6b9651c700d11e00202dc09f961df15bceb7cd --- /dev/null +++ b/pytorch_pretrained/convert_transfo_xl_checkpoint_to_pytorch.py @@ -0,0 +1,116 @@ +# coding=utf-8 +# Copyright 2018 The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Convert Transformer XL checkpoint and datasets.""" + +from __future__ import absolute_import, division, print_function + +import argparse +import os +import sys +from io import open + +import torch + +import pytorch_pretrained_bert.tokenization_transfo_xl as data_utils +from pytorch_pretrained_bert.modeling_transfo_xl import (CONFIG_NAME, + WEIGHTS_NAME, + TransfoXLConfig, + TransfoXLLMHeadModel, + load_tf_weights_in_transfo_xl) +from pytorch_pretrained_bert.tokenization_transfo_xl import (CORPUS_NAME, + VOCAB_NAME) + +if sys.version_info[0] == 2: + import cPickle as pickle +else: + import pickle + +# We do this to be able to load python 2 datasets pickles +# See e.g. https://stackoverflow.com/questions/2121874/python-pickling-after-changing-a-modules-directory/2121918#2121918 +data_utils.Vocab = data_utils.TransfoXLTokenizer +data_utils.Corpus = data_utils.TransfoXLCorpus +sys.modules['data_utils'] = data_utils +sys.modules['vocabulary'] = data_utils + +def convert_transfo_xl_checkpoint_to_pytorch(tf_checkpoint_path, + transfo_xl_config_file, + pytorch_dump_folder_path, + transfo_xl_dataset_file): + if transfo_xl_dataset_file: + # Convert a pre-processed corpus (see original TensorFlow repo) + with open(transfo_xl_dataset_file, "rb") as fp: + corpus = pickle.load(fp, encoding="latin1") + # Save vocabulary and dataset cache as Dictionaries (should be better than pickles for the long-term) + pytorch_vocab_dump_path = pytorch_dump_folder_path + '/' + VOCAB_NAME + print("Save vocabulary to {}".format(pytorch_vocab_dump_path)) + corpus_vocab_dict = corpus.vocab.__dict__ + torch.save(corpus_vocab_dict, pytorch_vocab_dump_path) + + corpus_dict_no_vocab = corpus.__dict__ + corpus_dict_no_vocab.pop('vocab', None) + pytorch_dataset_dump_path = pytorch_dump_folder_path + '/' + CORPUS_NAME + print("Save dataset to {}".format(pytorch_dataset_dump_path)) + torch.save(corpus_dict_no_vocab, pytorch_dataset_dump_path) + + if tf_checkpoint_path: + # Convert a pre-trained TensorFlow model + config_path = os.path.abspath(transfo_xl_config_file) + tf_path = os.path.abspath(tf_checkpoint_path) + + print("Converting Transformer XL checkpoint from {} with config at {}".format(tf_path, config_path)) + # Initialise PyTorch model + if transfo_xl_config_file == "": + config = TransfoXLConfig() + else: + config = TransfoXLConfig(transfo_xl_config_file) + print("Building PyTorch model from configuration: {}".format(str(config))) + model = TransfoXLLMHeadModel(config) + + model = load_tf_weights_in_transfo_xl(model, config, tf_path) + # Save pytorch-model + pytorch_weights_dump_path = os.path.join(pytorch_dump_folder_path, WEIGHTS_NAME) + pytorch_config_dump_path = os.path.join(pytorch_dump_folder_path, CONFIG_NAME) + print("Save PyTorch model to {}".format(os.path.abspath(pytorch_weights_dump_path))) + torch.save(model.state_dict(), pytorch_weights_dump_path) + print("Save configuration file to {}".format(os.path.abspath(pytorch_config_dump_path))) + with open(pytorch_config_dump_path, "w", encoding="utf-8") as f: + f.write(config.to_json_string()) + + +if __name__ == "__main__": + parser = argparse.ArgumentParser() + parser.add_argument("--pytorch_dump_folder_path", + default = None, + type = str, + required = True, + help = "Path to the folder to store the PyTorch model or dataset/vocab.") + parser.add_argument("--tf_checkpoint_path", + default = "", + type = str, + help = "An optional path to a TensorFlow checkpoint path to be converted.") + parser.add_argument("--transfo_xl_config_file", + default = "", + type = str, + help = "An optional config json file corresponding to the pre-trained BERT model. \n" + "This specifies the model architecture.") + parser.add_argument("--transfo_xl_dataset_file", + default = "", + type = str, + help = "An optional dataset file to be converted in a vocabulary.") + args = parser.parse_args() + convert_transfo_xl_checkpoint_to_pytorch(args.tf_checkpoint_path, + args.transfo_xl_config_file, + args.pytorch_dump_folder_path, + args.transfo_xl_dataset_file) diff --git a/pytorch_pretrained/file_utils.py b/pytorch_pretrained/file_utils.py new file mode 100644 index 0000000000000000000000000000000000000000..ad636555954ffe817915720d5c4caac62b238ac9 --- /dev/null +++ b/pytorch_pretrained/file_utils.py @@ -0,0 +1,269 @@ +""" +Utilities for working with the local dataset cache. +This file is adapted from the AllenNLP library at https://github.com/allenai/allennlp +Copyright by the AllenNLP authors. +""" +from __future__ import (absolute_import, division, print_function, unicode_literals) + +import sys +import json +import logging +import os +import shutil +import tempfile +import fnmatch +from functools import wraps +from hashlib import sha256 +import sys +from io import open + +import boto3 +import requests +from botocore.exceptions import ClientError +from tqdm import tqdm + +try: + from urllib.parse import urlparse +except ImportError: + from urllib.parse import urlparse +try: + from pathlib import Path + PYTORCH_PRETRAINED_BERT_CACHE = Path(os.getenv('PYTORCH_PRETRAINED_BERT_CACHE', + Path.home() / '.pytorch_pretrained_bert')) +except (AttributeError, ImportError): + PYTORCH_PRETRAINED_BERT_CACHE = os.getenv('PYTORCH_PRETRAINED_BERT_CACHE', + os.path.join(os.path.expanduser("~"), '.pytorch_pretrained_bert')) + +CONFIG_NAME = "config.json" +WEIGHTS_NAME = "pytorch_model.bin" + +logger = logging.getLogger(__name__) # pylint: disable=invalid-name + + +def url_to_filename(url, etag=None): + """ + Convert `url` into a hashed filename in a repeatable way. + If `etag` is specified, append its hash to the url's, delimited + by a period. + """ + url_bytes = url.encode('utf-8') + url_hash = sha256(url_bytes) + filename = url_hash.hexdigest() + + if etag: + etag_bytes = etag.encode('utf-8') + etag_hash = sha256(etag_bytes) + filename += '.' + etag_hash.hexdigest() + + return filename + + +def filename_to_url(filename, cache_dir=None): + """ + Return the url and etag (which may be ``None``) stored for `filename`. + Raise ``EnvironmentError`` if `filename` or its stored metadata do not exist. + """ + if cache_dir is None: + cache_dir = PYTORCH_PRETRAINED_BERT_CACHE + if sys.version_info[0] == 3 and isinstance(cache_dir, Path): + cache_dir = str(cache_dir) + + cache_path = os.path.join(cache_dir, filename) + if not os.path.exists(cache_path): + raise EnvironmentError("file {} not found".format(cache_path)) + + meta_path = cache_path + '.json' + if not os.path.exists(meta_path): + raise EnvironmentError("file {} not found".format(meta_path)) + + with open(meta_path, encoding="utf-8") as meta_file: + metadata = json.load(meta_file) + url = metadata['url'] + etag = metadata['etag'] + + return url, etag + + +def cached_path(url_or_filename, cache_dir=None): + """ + Given something that might be a URL (or might be a local path), + determine which. If it's a URL, download the file and cache it, and + return the path to the cached file. If it's already a local path, + make sure the file exists and then return the path. + """ + if cache_dir is None: + cache_dir = PYTORCH_PRETRAINED_BERT_CACHE + if sys.version_info[0] == 3 and isinstance(url_or_filename, Path): + url_or_filename = str(url_or_filename) + if sys.version_info[0] == 3 and isinstance(cache_dir, Path): + cache_dir = str(cache_dir) + + parsed = urlparse(url_or_filename) + + if parsed.scheme in ('http', 'https', 's3'): + # URL, so get it from the cache (downloading if necessary) + return get_from_cache(url_or_filename, cache_dir) + elif os.path.exists(url_or_filename): + # File, and it exists. + return url_or_filename + elif parsed.scheme == '': + # File, but it doesn't exist. + raise EnvironmentError("file {} not found".format(url_or_filename)) + else: + # Something unknown + raise ValueError("unable to parse {} as a URL or as a local path".format(url_or_filename)) + + +def split_s3_path(url): + """Split a full s3 path into the bucket name and path.""" + parsed = urlparse(url) + if not parsed.netloc or not parsed.path: + raise ValueError("bad s3 path {}".format(url)) + bucket_name = parsed.netloc + s3_path = parsed.path + # Remove '/' at beginning of path. + if s3_path.startswith("/"): + s3_path = s3_path[1:] + return bucket_name, s3_path + + +def s3_request(func): + """ + Wrapper function for s3 requests in order to create more helpful error + messages. + """ + + @wraps(func) + def wrapper(url, *args, **kwargs): + try: + return func(url, *args, **kwargs) + except ClientError as exc: + if int(exc.response["Error"]["Code"]) == 404: + raise EnvironmentError("file {} not found".format(url)) + else: + raise + + return wrapper + + +@s3_request +def s3_etag(url): + """Check ETag on S3 object.""" + s3_resource = boto3.resource("s3") + bucket_name, s3_path = split_s3_path(url) + s3_object = s3_resource.Object(bucket_name, s3_path) + return s3_object.e_tag + + +@s3_request +def s3_get(url, temp_file): + """Pull a file directly from S3.""" + s3_resource = boto3.resource("s3") + bucket_name, s3_path = split_s3_path(url) + s3_resource.Bucket(bucket_name).download_fileobj(s3_path, temp_file) + + +def http_get(url, temp_file): + req = requests.get(url, stream=True) + content_length = req.headers.get('Content-Length') + total = int(content_length) if content_length is not None else None + progress = tqdm(unit="B", total=total) + for chunk in req.iter_content(chunk_size=1024): + if chunk: # filter out keep-alive new chunks + progress.update(len(chunk)) + temp_file.write(chunk) + progress.close() + + +def get_from_cache(url, cache_dir=None): + """ + Given a URL, look for the corresponding dataset in the local cache. + If it's not there, download it. Then return the path to the cached file. + """ + if cache_dir is None: + cache_dir = PYTORCH_PRETRAINED_BERT_CACHE + if sys.version_info[0] == 3 and isinstance(cache_dir, Path): + cache_dir = str(cache_dir) + + if not os.path.exists(cache_dir): + os.makedirs(cache_dir) + + # Get eTag to add to filename, if it exists. + if url.startswith("s3://"): + etag = s3_etag(url) + else: + try: + response = requests.head(url, allow_redirects=True) + if response.status_code != 200: + etag = None + else: + etag = response.headers.get("ETag") + except EnvironmentError: + etag = None + + if sys.version_info[0] == 2 and etag is not None: + etag = etag.decode('utf-8') + filename = url_to_filename(url, etag) + + # get cache path to put the file + cache_path = os.path.join(cache_dir, filename) + + # If we don't have a connection (etag is None) and can't identify the file + # try to get the last downloaded one + if not os.path.exists(cache_path) and etag is None: + matching_files = fnmatch.filter(os.listdir(cache_dir), filename + '.*') + matching_files = list(filter(lambda s: not s.endswith('.json'), matching_files)) + if matching_files: + cache_path = os.path.join(cache_dir, matching_files[-1]) + + if not os.path.exists(cache_path): + # Download to temporary file, then copy to cache dir once finished. + # Otherwise you get corrupt cache entries if the download gets interrupted. + with tempfile.NamedTemporaryFile() as temp_file: + logger.info("%s not found in cache, downloading to %s", url, temp_file.name) + + # GET file object + if url.startswith("s3://"): + s3_get(url, temp_file) + else: + http_get(url, temp_file) + + # we are copying the file before closing it, so flush to avoid truncation + temp_file.flush() + # shutil.copyfileobj() starts at the current position, so go to the start + temp_file.seek(0) + + logger.info("copying %s to cache at %s", temp_file.name, cache_path) + with open(cache_path, 'wb') as cache_file: + shutil.copyfileobj(temp_file, cache_file) + + logger.info("creating metadata file for %s", cache_path) + meta = {'url': url, 'etag': etag} + meta_path = cache_path + '.json' + with open(meta_path, 'w') as meta_file: + output_string = json.dumps(meta) + if sys.version_info[0] == 2 and isinstance(output_string, str): + output_string = unicode(output_string, 'utf-8') # The beauty of python 2 + meta_file.write(output_string) + + logger.info("removing temp file %s", temp_file.name) + + return cache_path + + +def read_set_from_file(filename): + ''' + Extract a de-duped collection (set) of text from a file. + Expected file format is one item per line. + ''' + collection = set() + with open(filename, 'r', encoding='utf-8') as file_: + for line in file_: + collection.add(line.rstrip()) + return collection + + +def get_file_extension(path, dot=True, lower=True): + ext = os.path.splitext(path)[1] + ext = ext if dot else ext[1:] + return ext.lower() if lower else ext diff --git a/pytorch_pretrained/modeling.py b/pytorch_pretrained/modeling.py new file mode 100644 index 0000000000000000000000000000000000000000..4b677ebd68bef268cd9125ad18fa9bb7e08a45fb --- /dev/null +++ b/pytorch_pretrained/modeling.py @@ -0,0 +1,1228 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors and The HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""PyTorch BERT model.""" + +from __future__ import absolute_import, division, print_function, unicode_literals + +import copy +import json +import logging +import math +import os +import shutil +import tarfile +import tempfile +import sys +from io import open + +import torch +from torch import nn +from torch.nn import CrossEntropyLoss + +from .file_utils import cached_path, WEIGHTS_NAME, CONFIG_NAME + +logger = logging.getLogger(__name__) + +PRETRAINED_MODEL_ARCHIVE_MAP = { + 'bert-base-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-uncased.tar.gz", + 'bert-large-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-large-uncased.tar.gz", + 'bert-base-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-cased.tar.gz", + 'bert-large-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-large-cased.tar.gz", + 'bert-base-multilingual-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-multilingual-uncased.tar.gz", + 'bert-base-multilingual-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-multilingual-cased.tar.gz", + 'bert-base-chinese': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-chinese.tar.gz", +} +BERT_CONFIG_NAME = 'bert_config.json' +TF_WEIGHTS_NAME = 'model.ckpt' + +def load_tf_weights_in_bert(model, tf_checkpoint_path): + """ Load tf checkpoints in a pytorch model + """ + try: + import re + import numpy as np + import tensorflow as tf + except ImportError: + print("Loading a TensorFlow models in PyTorch, requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + tf_path = os.path.abspath(tf_checkpoint_path) + print("Converting TensorFlow checkpoint from {}".format(tf_path)) + # Load weights from TF model + init_vars = tf.train.list_variables(tf_path) + names = [] + arrays = [] + for name, shape in init_vars: + print("Loading TF weight {} with shape {}".format(name, shape)) + array = tf.train.load_variable(tf_path, name) + names.append(name) + arrays.append(array) + + for name, array in zip(names, arrays): + name = name.split('/') + # adam_v and adam_m are variables used in AdamWeightDecayOptimizer to calculated m and v + # which are not required for using pretrained model + if any(n in ["adam_v", "adam_m", "global_step"] for n in name): + print("Skipping {}".format("/".join(name))) + continue + pointer = model + for m_name in name: + if re.fullmatch(r'[A-Za-z]+_\d+', m_name): + l = re.split(r'_(\d+)', m_name) + else: + l = [m_name] + if l[0] == 'kernel' or l[0] == 'gamma': + pointer = getattr(pointer, 'weight') + elif l[0] == 'output_bias' or l[0] == 'beta': + pointer = getattr(pointer, 'bias') + elif l[0] == 'output_weights': + pointer = getattr(pointer, 'weight') + elif l[0] == 'squad': + pointer = getattr(pointer, 'classifier') + else: + try: + pointer = getattr(pointer, l[0]) + except AttributeError: + print("Skipping {}".format("/".join(name))) + continue + if len(l) >= 2: + num = int(l[1]) + pointer = pointer[num] + if m_name[-11:] == '_embeddings': + pointer = getattr(pointer, 'weight') + elif m_name == 'kernel': + array = np.transpose(array) + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + print("Initialize PyTorch weight {}".format(name)) + pointer.data = torch.from_numpy(array) + return model + + +def gelu(x): + """Implementation of the gelu activation function. + For information: OpenAI GPT's gelu is slightly different (and gives slightly different results): + 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 * torch.pow(x, 3)))) + Also see https://arxiv.org/abs/1606.08415 + """ + return x * 0.5 * (1.0 + torch.erf(x / math.sqrt(2.0))) + + +def swish(x): + return x * torch.sigmoid(x) + + +ACT2FN = {"gelu": gelu, "relu": torch.nn.functional.relu, "swish": swish} + + +class BertConfig(object): + """Configuration class to store the configuration of a `BertModel`. + """ + def __init__(self, + vocab_size_or_config_json_file, + hidden_size=768, + num_hidden_layers=12, + num_attention_heads=12, + intermediate_size=3072, + hidden_act="gelu", + hidden_dropout_prob=0.1, + attention_probs_dropout_prob=0.1, + max_position_embeddings=512, + type_vocab_size=2, + initializer_range=0.02): + """Constructs BertConfig. + + Args: + vocab_size_or_config_json_file: Vocabulary size of `inputs_ids` in `BertModel`. + hidden_size: Size of the encoder layers and the pooler layer. + num_hidden_layers: Number of hidden layers in the Transformer encoder. + num_attention_heads: Number of attention heads for each attention layer in + the Transformer encoder. + intermediate_size: The size of the "intermediate" (i.e., feed-forward) + layer in the Transformer encoder. + hidden_act: The non-linear activation function (function or string) in the + encoder and pooler. If string, "gelu", "relu" and "swish" are supported. + hidden_dropout_prob: The dropout probabilitiy for all fully connected + layers in the embeddings, encoder, and pooler. + attention_probs_dropout_prob: The dropout ratio for the attention + probabilities. + max_position_embeddings: The maximum sequence length that this model might + ever be used with. Typically set this to something large just in case + (e.g., 512 or 1024 or 2048). + type_vocab_size: The vocabulary size of the `token_type_ids` passed into + `BertModel`. + initializer_range: The sttdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + if isinstance(vocab_size_or_config_json_file, str) or (sys.version_info[0] == 2 + and isinstance(vocab_size_or_config_json_file, unicode)): + with open(vocab_size_or_config_json_file, "r", encoding='utf-8') as reader: + json_config = json.loads(reader.read()) + for key, value in json_config.items(): + self.__dict__[key] = value + elif isinstance(vocab_size_or_config_json_file, int): + self.vocab_size = vocab_size_or_config_json_file + self.hidden_size = hidden_size + self.num_hidden_layers = num_hidden_layers + self.num_attention_heads = num_attention_heads + self.hidden_act = hidden_act + self.intermediate_size = intermediate_size + self.hidden_dropout_prob = hidden_dropout_prob + self.attention_probs_dropout_prob = attention_probs_dropout_prob + self.max_position_embeddings = max_position_embeddings + self.type_vocab_size = type_vocab_size + self.initializer_range = initializer_range + else: + raise ValueError("First argument must be either a vocabulary size (int)" + "or the path to a pretrained model config file (str)") + + @classmethod + def from_dict(cls, json_object): + """Constructs a `BertConfig` from a Python dictionary of parameters.""" + config = BertConfig(vocab_size_or_config_json_file=-1) + for key, value in json_object.items(): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `BertConfig` from a json file of parameters.""" + with open(json_file, "r", encoding='utf-8') as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def __repr__(self): + return str(self.to_json_string()) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + def to_json_file(self, json_file_path): + """ Save this instance to a json file.""" + with open(json_file_path, "w", encoding='utf-8') as writer: + writer.write(self.to_json_string()) + +try: + from apex.normalization.fused_layer_norm import FusedLayerNorm as BertLayerNorm +except ImportError: + logger.info("Better speed can be achieved with apex installed from https://www.github.com/nvidia/apex .") + class BertLayerNorm(nn.Module): + def __init__(self, hidden_size, eps=1e-12): + """Construct a layernorm module in the TF style (epsilon inside the square root). + """ + super(BertLayerNorm, self).__init__() + self.weight = nn.Parameter(torch.ones(hidden_size)) + self.bias = nn.Parameter(torch.zeros(hidden_size)) + self.variance_epsilon = eps + + def forward(self, x): + u = x.mean(-1, keepdim=True) + s = (x - u).pow(2).mean(-1, keepdim=True) + x = (x - u) / torch.sqrt(s + self.variance_epsilon) + return self.weight * x + self.bias + +class BertEmbeddings(nn.Module): + """Construct the embeddings from word, position and token_type embeddings. + """ + def __init__(self, config): + super(BertEmbeddings, self).__init__() + self.word_embeddings = nn.Embedding(config.vocab_size, config.hidden_size, padding_idx=0) + self.position_embeddings = nn.Embedding(config.max_position_embeddings, config.hidden_size) + self.token_type_embeddings = nn.Embedding(config.type_vocab_size, config.hidden_size) + #self.test_embeddings=nn.Embedding(config.vocab_size, config.hidden_size) + # self.LayerNorm is not snake-cased to stick with TensorFlow model variable name and be able to load + # any TensorFlow checkpoint file + self.LayerNorm = BertLayerNorm(config.hidden_size, eps=1e-12) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + + def forward(self, input_ids, token_type_ids=None): + seq_length = input_ids.size(1) + position_ids = torch.arange(seq_length, dtype=torch.long, device=input_ids.device) + position_ids = position_ids.unsqueeze(0).expand_as(input_ids) + if token_type_ids is None: + token_type_ids = torch.zeros_like(input_ids) + + words_embeddings = self.word_embeddings(input_ids) + position_embeddings = self.position_embeddings(position_ids) + token_type_embeddings = self.token_type_embeddings(token_type_ids) + #print("words_embeddings", words_embeddings.size(), words_embeddings) + #print("position_embeddings", position_embeddings.size(), position_embeddings) + #print("token_type_embeddings", token_type_embeddings.size(), token_type_embeddings) + #test_embeddings=self.test_embeddings(input_ids) + + embeddings = words_embeddings + position_embeddings + token_type_embeddings + #print("embeddings",embeddings,embeddings.size()) + embeddings = self.LayerNorm(embeddings) + embeddings = self.dropout(embeddings) + + return embeddings + + +class BertSelfAttention(nn.Module): + def __init__(self, config): + super(BertSelfAttention, self).__init__() + if config.hidden_size % config.num_attention_heads != 0: + raise ValueError( + "The hidden size (%d) is not a multiple of the number of attention " + "heads (%d)" % (config.hidden_size, config.num_attention_heads)) + self.num_attention_heads = config.num_attention_heads + self.attention_head_size = int(config.hidden_size / config.num_attention_heads) + self.all_head_size = self.num_attention_heads * self.attention_head_size + + self.query = nn.Linear(config.hidden_size, self.all_head_size) + self.key = nn.Linear(config.hidden_size, self.all_head_size) + self.value = nn.Linear(config.hidden_size, self.all_head_size) + + self.dropout = nn.Dropout(config.attention_probs_dropout_prob) + + def transpose_for_scores(self, x): + new_x_shape = x.size()[:-1] + (self.num_attention_heads, self.attention_head_size) + x = x.view(*new_x_shape) + return x.permute(0, 2, 1, 3) + + def forward(self, hidden_states, attention_mask): + mixed_query_layer = self.query(hidden_states) + mixed_key_layer = self.key(hidden_states) + mixed_value_layer = self.value(hidden_states) + + query_layer = self.transpose_for_scores(mixed_query_layer) + key_layer = self.transpose_for_scores(mixed_key_layer) + value_layer = self.transpose_for_scores(mixed_value_layer) + + # Take the dot product between "query" and "key" to get the raw attention scores. + attention_scores = torch.matmul(query_layer, key_layer.transpose(-1, -2)) + attention_scores = attention_scores / math.sqrt(self.attention_head_size) + # Apply the attention mask is (precomputed for all layers in BertModel forward() function) + attention_scores = attention_scores + attention_mask + + # Normalize the attention scores to probabilities. + attention_probs = nn.Softmax(dim=-1)(attention_scores) + + # This is actually dropping out entire tokens to attend to, which might + # seem a bit unusual, but is taken from the original Transformer paper. + attention_probs = self.dropout(attention_probs) + + context_layer = torch.matmul(attention_probs, value_layer) + context_layer = context_layer.permute(0, 2, 1, 3).contiguous() + new_context_layer_shape = context_layer.size()[:-2] + (self.all_head_size,) + context_layer = context_layer.view(*new_context_layer_shape) + return context_layer + + +class BertSelfOutput(nn.Module): + def __init__(self, config): + super(BertSelfOutput, self).__init__() + self.dense = nn.Linear(config.hidden_size, config.hidden_size) + self.LayerNorm = BertLayerNorm(config.hidden_size, eps=1e-12) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + + def forward(self, hidden_states, input_tensor): + hidden_states = self.dense(hidden_states) + hidden_states = self.dropout(hidden_states) + hidden_states = self.LayerNorm(hidden_states + input_tensor) + return hidden_states + + +class BertAttention(nn.Module): + def __init__(self, config): + super(BertAttention, self).__init__() + self.self = BertSelfAttention(config) + self.output = BertSelfOutput(config) + + def forward(self, input_tensor, attention_mask): + self_output = self.self(input_tensor, attention_mask) + attention_output = self.output(self_output, input_tensor) + return attention_output + + +class BertIntermediate(nn.Module): + def __init__(self, config): + super(BertIntermediate, self).__init__() + self.dense = nn.Linear(config.hidden_size, config.intermediate_size) + if isinstance(config.hidden_act, str) or (sys.version_info[0] == 2 and isinstance(config.hidden_act, unicode)): + self.intermediate_act_fn = ACT2FN[config.hidden_act] + else: + self.intermediate_act_fn = config.hidden_act + + def forward(self, hidden_states): + hidden_states = self.dense(hidden_states) + hidden_states = self.intermediate_act_fn(hidden_states) + return hidden_states + + +class BertOutput(nn.Module): + def __init__(self, config): + super(BertOutput, self).__init__() + self.dense = nn.Linear(config.intermediate_size, config.hidden_size) + self.LayerNorm = BertLayerNorm(config.hidden_size, eps=1e-12) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + + def forward(self, hidden_states, input_tensor): + hidden_states = self.dense(hidden_states) + hidden_states = self.dropout(hidden_states) + hidden_states = self.LayerNorm(hidden_states + input_tensor) + return hidden_states + + +class BertLayer(nn.Module): + def __init__(self, config): + super(BertLayer, self).__init__() + self.attention = BertAttention(config) + self.intermediate = BertIntermediate(config) + self.output = BertOutput(config) + + def forward(self, hidden_states, attention_mask): + attention_output = self.attention(hidden_states, attention_mask) + intermediate_output = self.intermediate(attention_output) + layer_output = self.output(intermediate_output, attention_output) + return layer_output + + +class BertEncoder(nn.Module): + def __init__(self, config): + super(BertEncoder, self).__init__() + layer = BertLayer(config) + self.layer = nn.ModuleList([copy.deepcopy(layer) for _ in range(config.num_hidden_layers)]) + + def forward(self, hidden_states, attention_mask, output_all_encoded_layers=True): + all_encoder_layers = [] + for layer_module in self.layer: + hidden_states = layer_module(hidden_states, attention_mask) + if output_all_encoded_layers: + all_encoder_layers.append(hidden_states) + if not output_all_encoded_layers: + all_encoder_layers.append(hidden_states) + return all_encoder_layers + + +class BertPooler(nn.Module): + def __init__(self, config): + super(BertPooler, self).__init__() + self.dense = nn.Linear(config.hidden_size, config.hidden_size) + self.activation = nn.Tanh() + + def forward(self, hidden_states): + # We "pool" the model by simply taking the hidden state corresponding + # to the first token. + first_token_tensor = hidden_states[:, 0] + pooled_output = self.dense(first_token_tensor) + pooled_output = self.activation(pooled_output) + return pooled_output + + +class BertPredictionHeadTransform(nn.Module): + def __init__(self, config): + super(BertPredictionHeadTransform, self).__init__() + self.dense = nn.Linear(config.hidden_size, config.hidden_size) + if isinstance(config.hidden_act, str) or (sys.version_info[0] == 2 and isinstance(config.hidden_act, unicode)): + self.transform_act_fn = ACT2FN[config.hidden_act] + else: + self.transform_act_fn = config.hidden_act + self.LayerNorm = BertLayerNorm(config.hidden_size, eps=1e-12) + + def forward(self, hidden_states): + hidden_states = self.dense(hidden_states) + hidden_states = self.transform_act_fn(hidden_states) + hidden_states = self.LayerNorm(hidden_states) + return hidden_states + + +class BertLMPredictionHead(nn.Module): + def __init__(self, config, bert_model_embedding_weights): + super(BertLMPredictionHead, self).__init__() + self.transform = BertPredictionHeadTransform(config) + + # The output weights are the same as the input embeddings, but there is + # an output-only bias for each token. + self.decoder = nn.Linear(bert_model_embedding_weights.size(1), + bert_model_embedding_weights.size(0), + bias=False) + self.decoder.weight = bert_model_embedding_weights + self.bias = nn.Parameter(torch.zeros(bert_model_embedding_weights.size(0))) + + def forward(self, hidden_states): + hidden_states = self.transform(hidden_states) + hidden_states = self.decoder(hidden_states) + self.bias + return hidden_states + + +class BertOnlyMLMHead(nn.Module): + def __init__(self, config, bert_model_embedding_weights): + super(BertOnlyMLMHead, self).__init__() + self.predictions = BertLMPredictionHead(config, bert_model_embedding_weights) + + def forward(self, sequence_output): + prediction_scores = self.predictions(sequence_output) + return prediction_scores + + +class BertOnlyNSPHead(nn.Module): + def __init__(self, config): + super(BertOnlyNSPHead, self).__init__() + self.seq_relationship = nn.Linear(config.hidden_size, 2) + + def forward(self, pooled_output): + seq_relationship_score = self.seq_relationship(pooled_output) + return seq_relationship_score + + +class BertPreTrainingHeads(nn.Module): + def __init__(self, config, bert_model_embedding_weights): + super(BertPreTrainingHeads, self).__init__() + self.predictions = BertLMPredictionHead(config, bert_model_embedding_weights) + self.seq_relationship = nn.Linear(config.hidden_size, 2) + + def forward(self, sequence_output, pooled_output): + prediction_scores = self.predictions(sequence_output) + seq_relationship_score = self.seq_relationship(pooled_output) + return prediction_scores, seq_relationship_score + + +class BertPreTrainedModel(nn.Module): + """ An abstract class to handle weights initialization and + a simple interface for dowloading and loading pretrained models. + """ + def __init__(self, config, *inputs, **kwargs): + super(BertPreTrainedModel, self).__init__() + if not isinstance(config, BertConfig): + raise ValueError( + "Parameter config in `{}(config)` should be an instance of class `BertConfig`. " + "To create a model from a Google pretrained model use " + "`model = {}.from_pretrained(PRETRAINED_MODEL_NAME)`".format( + self.__class__.__name__, self.__class__.__name__ + )) + self.config = config + + def init_bert_weights(self, module): + """ Initialize the weights. + """ + if isinstance(module, (nn.Linear, nn.Embedding)): + # Slightly different from the TF version which uses truncated_normal for initialization + # cf https://github.com/pytorch/pytorch/pull/5617 + module.weight.data.normal_(mean=0.0, std=self.config.initializer_range) + elif isinstance(module, BertLayerNorm): + module.bias.data.zero_() + module.weight.data.fill_(1.0) + if isinstance(module, nn.Linear) and module.bias is not None: + module.bias.data.zero_() + + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, *inputs, **kwargs): + """ + Instantiate a BertPreTrainedModel from a pre-trained model file or a pytorch state dict. + Download and cache the pre-trained model file if needed. + + Params: + pretrained_model_name_or_path: either: + - a str with the name of a pre-trained model to load selected in the list of: + . `bert-base-uncased` + . `bert-large-uncased` + . `bert-base-cased` + . `bert-large-cased` + . `bert-base-multilingual-uncased` + . `bert-base-multilingual-cased` + . `bert-base-chinese` + - a path or url to a pretrained model archive containing: + . `bert_config.json` a configuration file for the model + . `pytorch_model.bin` a PyTorch dump of a BertForPreTraining instance + - a path or url to a pretrained model archive containing: + . `bert_config.json` a configuration file for the model + . `model.chkpt` a TensorFlow checkpoint + from_tf: should we load the weights from a locally saved TensorFlow checkpoint + cache_dir: an optional path to a folder in which the pre-trained models will be cached. + state_dict: an optional state dictionnary (collections.OrderedDict object) to use instead of Google pre-trained models + *inputs, **kwargs: additional input for the specific Bert class + (ex: num_labels for BertForSequenceClassification) + """ + state_dict = kwargs.get('state_dict', None) + kwargs.pop('state_dict', None) + cache_dir = kwargs.get('cache_dir', None) + kwargs.pop('cache_dir', None) + from_tf = kwargs.get('from_tf', False) + kwargs.pop('from_tf', None) + + if pretrained_model_name_or_path in PRETRAINED_MODEL_ARCHIVE_MAP: + archive_file = PRETRAINED_MODEL_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + archive_file = pretrained_model_name_or_path + # redirect to the cache, if necessary + try: + resolved_archive_file = cached_path(archive_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find any file " + "associated to this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_MODEL_ARCHIVE_MAP.keys()), + archive_file)) + return None + if resolved_archive_file == archive_file: + logger.info("loading archive file {}".format(archive_file)) + else: + logger.info("loading archive file {} from cache at {}".format( + archive_file, resolved_archive_file)) + tempdir = None + if os.path.isdir(resolved_archive_file) or from_tf: + serialization_dir = resolved_archive_file + else: + # Extract archive to temp dir + tempdir = tempfile.mkdtemp() + logger.info("extracting archive file {} to temp dir {}".format( + resolved_archive_file, tempdir)) + with tarfile.open(resolved_archive_file, 'r:gz') as archive: + archive.extractall(tempdir) + serialization_dir = tempdir + # Load config + config_file = os.path.join(serialization_dir, CONFIG_NAME) + if not os.path.exists(config_file): + # Backward compatibility with old naming format + config_file = os.path.join(serialization_dir, BERT_CONFIG_NAME) + config = BertConfig.from_json_file(config_file) + logger.info("Model config {}".format(config)) + # Instantiate model. + model = cls(config, *inputs, **kwargs) + if state_dict is None and not from_tf: + weights_path = os.path.join(serialization_dir, WEIGHTS_NAME) + state_dict = torch.load(weights_path, map_location='cpu') + if tempdir: + # Clean up temp dir + shutil.rmtree(tempdir) + if from_tf: + # Directly load from a TensorFlow checkpoint + weights_path = os.path.join(serialization_dir, TF_WEIGHTS_NAME) + return load_tf_weights_in_bert(model, weights_path) + # Load from a PyTorch state_dict + old_keys = [] + new_keys = [] + for key in state_dict.keys(): + new_key = None + if 'gamma' in key: + new_key = key.replace('gamma', 'weight') + if 'beta' in key: + new_key = key.replace('beta', 'bias') + if new_key: + old_keys.append(key) + new_keys.append(new_key) + for old_key, new_key in zip(old_keys, new_keys): + state_dict[new_key] = state_dict.pop(old_key) + + missing_keys = [] + unexpected_keys = [] + error_msgs = [] + # copy state_dict so _load_from_state_dict can modify it + metadata = getattr(state_dict, '_metadata', None) + state_dict = state_dict.copy() + if metadata is not None: + state_dict._metadata = metadata + + def load(module, prefix=''): + local_metadata = {} if metadata is None else metadata.get(prefix[:-1], {}) + module._load_from_state_dict( + state_dict, prefix, local_metadata, True, missing_keys, unexpected_keys, error_msgs) + for name, child in module._modules.items(): + if child is not None: + load(child, prefix + name + '.') + start_prefix = '' + if not hasattr(model, 'bert') and any(s.startswith('bert.') for s in state_dict.keys()): + start_prefix = 'bert.' + load(model, prefix=start_prefix) + if len(missing_keys) > 0: + logger.info("Weights of {} not initialized from pretrained model: {}".format( + model.__class__.__name__, missing_keys)) + if len(unexpected_keys) > 0: + logger.info("Weights from pretrained model not used in {}: {}".format( + model.__class__.__name__, unexpected_keys)) + if len(error_msgs) > 0: + raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format( + model.__class__.__name__, "\n\t".join(error_msgs))) + return model + + +class BertModel(BertPreTrainedModel): + """BERT model ("Bidirectional Embedding Representations from a Transformer"). + + Params: + config: a BertConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `output_all_encoded_layers`: boolean which controls the content of the `encoded_layers` output as described below. Default: `True`. + + Outputs: Tuple of (encoded_layers, pooled_output) + `encoded_layers`: controled by `output_all_encoded_layers` argument: + - `output_all_encoded_layers=True`: outputs a list of the full sequences of encoded-hidden-states at the end + of each attention block (i.e. 12 full sequences for BERT-base, 24 for BERT-large), each + encoded-hidden-state is a torch.FloatTensor of size [batch_size, sequence_length, hidden_size], + - `output_all_encoded_layers=False`: outputs only the full sequence of hidden-states corresponding + to the last attention block of shape [batch_size, sequence_length, hidden_size], + `pooled_output`: a torch.FloatTensor of size [batch_size, hidden_size] which is the output of a + classifier pretrained on top of the hidden state associated to the first character of the + input (`CLS`) to train on the Next-Sentence task (see BERT's paper). + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = modeling.BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + model = modeling.BertModel(config=config) + all_encoder_layers, pooled_output = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config): + super(BertModel, self).__init__(config) + self.embeddings = BertEmbeddings(config) + self.encoder = BertEncoder(config) + self.pooler = BertPooler(config) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, output_all_encoded_layers=True): + if attention_mask is None: + attention_mask = torch.ones_like(input_ids) + if token_type_ids is None: + token_type_ids = torch.zeros_like(input_ids) + + # We create a 3D attention mask from a 2D tensor mask. + # Sizes are [batch_size, 1, 1, to_seq_length] + # So we can broadcast to [batch_size, num_heads, from_seq_length, to_seq_length] + # this attention mask is more simple than the triangular masking of causal attention + # used in OpenAI GPT, we just need to prepare the broadcast dimension here. + extended_attention_mask = attention_mask.unsqueeze(1).unsqueeze(2) + + # Since attention_mask is 1.0 for positions we want to attend and 0.0 for + # masked positions, this operation will create a tensor which is 0.0 for + # positions we want to attend and -10000.0 for masked positions. + # Since we are adding it to the raw scores before the softmax, this is + # effectively the same as removing these entirely. + extended_attention_mask = extended_attention_mask.to(dtype=next(self.parameters()).dtype) # fp16 compatibility + extended_attention_mask = (1.0 - extended_attention_mask) * -10000.0 + + embedding_output = self.embeddings(input_ids, token_type_ids) + encoded_layers = self.encoder(embedding_output, + extended_attention_mask, + output_all_encoded_layers=output_all_encoded_layers) + sequence_output = encoded_layers[-1] + pooled_output = self.pooler(sequence_output) + if not output_all_encoded_layers: + encoded_layers = encoded_layers[-1] + return encoded_layers, pooled_output + + +class BertForPreTraining(BertPreTrainedModel): + """BERT model with pre-training heads. + This module comprises the BERT model followed by the two pre-training heads: + - the masked language modeling head, and + - the next sentence classification head. + + Params: + config: a BertConfig class instance with the configuration to build a new model. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `masked_lm_labels`: optional masked language modeling labels: torch.LongTensor of shape [batch_size, sequence_length] + with indices selected in [-1, 0, ..., vocab_size]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., vocab_size] + `next_sentence_label`: optional next sentence classification loss: torch.LongTensor of shape [batch_size] + with indices selected in [0, 1]. + 0 => next sentence is the continuation, 1 => next sentence is a random sentence. + + Outputs: + if `masked_lm_labels` and `next_sentence_label` are not `None`: + Outputs the total_loss which is the sum of the masked language modeling loss and the next + sentence classification loss. + if `masked_lm_labels` or `next_sentence_label` is `None`: + Outputs a tuple comprising + - the masked language modeling logits of shape [batch_size, sequence_length, vocab_size], and + - the next sentence classification logits of shape [batch_size, 2]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + model = BertForPreTraining(config) + masked_lm_logits_scores, seq_relationship_logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config): + super(BertForPreTraining, self).__init__(config) + self.bert = BertModel(config) + self.cls = BertPreTrainingHeads(config, self.bert.embeddings.word_embeddings.weight) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, masked_lm_labels=None, next_sentence_label=None): + sequence_output, pooled_output = self.bert(input_ids, token_type_ids, attention_mask, + output_all_encoded_layers=False) + prediction_scores, seq_relationship_score = self.cls(sequence_output, pooled_output) + + if masked_lm_labels is not None and next_sentence_label is not None: + loss_fct = CrossEntropyLoss(ignore_index=-1) + masked_lm_loss = loss_fct(prediction_scores.view(-1, self.config.vocab_size), masked_lm_labels.view(-1)) + next_sentence_loss = loss_fct(seq_relationship_score.view(-1, 2), next_sentence_label.view(-1)) + total_loss = masked_lm_loss + next_sentence_loss + return total_loss + else: + return prediction_scores, seq_relationship_score + + +class BertForMaskedLM(BertPreTrainedModel): + """BERT model with the masked language modeling head. + This module comprises the BERT model followed by the masked language modeling head. + + Params: + config: a BertConfig class instance with the configuration to build a new model. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `masked_lm_labels`: masked language modeling labels: torch.LongTensor of shape [batch_size, sequence_length] + with indices selected in [-1, 0, ..., vocab_size]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., vocab_size] + + Outputs: + if `masked_lm_labels` is not `None`: + Outputs the masked language modeling loss. + if `masked_lm_labels` is `None`: + Outputs the masked language modeling logits of shape [batch_size, sequence_length, vocab_size]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + model = BertForMaskedLM(config) + masked_lm_logits_scores = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config): + super(BertForMaskedLM, self).__init__(config) + self.bert = BertModel(config) + self.cls = BertOnlyMLMHead(config, self.bert.embeddings.word_embeddings.weight) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, masked_lm_labels=None): + sequence_output, _ = self.bert(input_ids, token_type_ids, attention_mask, + output_all_encoded_layers=False) + prediction_scores = self.cls(sequence_output) + + if masked_lm_labels is not None: + loss_fct = CrossEntropyLoss(ignore_index=-1) + masked_lm_loss = loss_fct(prediction_scores.view(-1, self.config.vocab_size), masked_lm_labels.view(-1)) + return masked_lm_loss + else: + return prediction_scores + + +class BertForNextSentencePrediction(BertPreTrainedModel): + """BERT model with next sentence prediction head. + This module comprises the BERT model followed by the next sentence classification head. + + Params: + config: a BertConfig class instance with the configuration to build a new model. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `next_sentence_label`: next sentence classification loss: torch.LongTensor of shape [batch_size] + with indices selected in [0, 1]. + 0 => next sentence is the continuation, 1 => next sentence is a random sentence. + + Outputs: + if `next_sentence_label` is not `None`: + Outputs the total_loss which is the sum of the masked language modeling loss and the next + sentence classification loss. + if `next_sentence_label` is `None`: + Outputs the next sentence classification logits of shape [batch_size, 2]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + model = BertForNextSentencePrediction(config) + seq_relationship_logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config): + super(BertForNextSentencePrediction, self).__init__(config) + self.bert = BertModel(config) + self.cls = BertOnlyNSPHead(config) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, next_sentence_label=None): + _, pooled_output = self.bert(input_ids, token_type_ids, attention_mask, + output_all_encoded_layers=False) + seq_relationship_score = self.cls( pooled_output) + + if next_sentence_label is not None: + loss_fct = CrossEntropyLoss(ignore_index=-1) + next_sentence_loss = loss_fct(seq_relationship_score.view(-1, 2), next_sentence_label.view(-1)) + return next_sentence_loss + else: + return seq_relationship_score + + +class BertForSequenceClassification(BertPreTrainedModel): + """BERT model for classification. + This module is composed of the BERT model with a linear layer on top of + the pooled output. + + Params: + `config`: a BertConfig class instance with the configuration to build a new model. + `num_labels`: the number of classes for the classifier. Default = 2. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary. Items in the batch should begin with the special "CLS" token. (see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `labels`: labels for the classification output: torch.LongTensor of shape [batch_size] + with indices selected in [0, ..., num_labels]. + + Outputs: + if `labels` is not `None`: + Outputs the CrossEntropy classification loss of the output with the labels. + if `labels` is `None`: + Outputs the classification logits of shape [batch_size, num_labels]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + num_labels = 2 + + model = BertForSequenceClassification(config, num_labels) + logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config, num_labels): + super(BertForSequenceClassification, self).__init__(config) + self.num_labels = num_labels + self.bert = BertModel(config) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + self.classifier = nn.Linear(config.hidden_size, num_labels) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, labels=None): + _, pooled_output = self.bert(input_ids, token_type_ids, attention_mask, output_all_encoded_layers=False) + pooled_output = self.dropout(pooled_output) + logits = self.classifier(pooled_output) + + if labels is not None: + loss_fct = CrossEntropyLoss() + loss = loss_fct(logits.view(-1, self.num_labels), labels.view(-1)) + return loss + else: + return logits + + +class BertForMultipleChoice(BertPreTrainedModel): + """BERT model for multiple choice tasks. + This module is composed of the BERT model with a linear layer on top of + the pooled output. + + Params: + `config`: a BertConfig class instance with the configuration to build a new model. + `num_choices`: the number of classes for the classifier. Default = 2. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, num_choices, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, num_choices, sequence_length] + with the token types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` + and type 1 corresponds to a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, num_choices, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `labels`: labels for the classification output: torch.LongTensor of shape [batch_size] + with indices selected in [0, ..., num_choices]. + + Outputs: + if `labels` is not `None`: + Outputs the CrossEntropy classification loss of the output with the labels. + if `labels` is `None`: + Outputs the classification logits of shape [batch_size, num_labels]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[[31, 51, 99], [15, 5, 0]], [[12, 16, 42], [14, 28, 57]]]) + input_mask = torch.LongTensor([[[1, 1, 1], [1, 1, 0]],[[1,1,0], [1, 0, 0]]]) + token_type_ids = torch.LongTensor([[[0, 0, 1], [0, 1, 0]],[[0, 1, 1], [0, 0, 1]]]) + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + num_choices = 2 + + model = BertForMultipleChoice(config, num_choices) + logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config, num_choices): + super(BertForMultipleChoice, self).__init__(config) + self.num_choices = num_choices + self.bert = BertModel(config) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + self.classifier = nn.Linear(config.hidden_size, 1) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, labels=None): + flat_input_ids = input_ids.view(-1, input_ids.size(-1)) + flat_token_type_ids = token_type_ids.view(-1, token_type_ids.size(-1)) if token_type_ids is not None else None + flat_attention_mask = attention_mask.view(-1, attention_mask.size(-1)) if attention_mask is not None else None + _, pooled_output = self.bert(flat_input_ids, flat_token_type_ids, flat_attention_mask, output_all_encoded_layers=False) + pooled_output = self.dropout(pooled_output) + logits = self.classifier(pooled_output) + reshaped_logits = logits.view(-1, self.num_choices) + + if labels is not None: + loss_fct = CrossEntropyLoss() + loss = loss_fct(reshaped_logits, labels) + return loss + else: + return reshaped_logits + + +class BertForTokenClassification(BertPreTrainedModel): + """BERT model for token-level classification. + This module is composed of the BERT model with a linear layer on top of + the full hidden state of the last layer. + + Params: + `config`: a BertConfig class instance with the configuration to build a new model. + `num_labels`: the number of classes for the classifier. Default = 2. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `labels`: labels for the classification output: torch.LongTensor of shape [batch_size, sequence_length] + with indices selected in [0, ..., num_labels]. + + Outputs: + if `labels` is not `None`: + Outputs the CrossEntropy classification loss of the output with the labels. + if `labels` is `None`: + Outputs the classification logits of shape [batch_size, sequence_length, num_labels]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + num_labels = 2 + + model = BertForTokenClassification(config, num_labels) + logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config, num_labels): + super(BertForTokenClassification, self).__init__(config) + self.num_labels = num_labels + self.bert = BertModel(config) + self.dropout = nn.Dropout(config.hidden_dropout_prob) + self.classifier = nn.Linear(config.hidden_size, num_labels) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, labels=None): + sequence_output, _ = self.bert(input_ids, token_type_ids, attention_mask, output_all_encoded_layers=False) + sequence_output = self.dropout(sequence_output) + logits = self.classifier(sequence_output) + + if labels is not None: + loss_fct = CrossEntropyLoss() + # Only keep active parts of the loss + if attention_mask is not None: + active_loss = attention_mask.view(-1) == 1 + active_logits = logits.view(-1, self.num_labels)[active_loss] + active_labels = labels.view(-1)[active_loss] + loss = loss_fct(active_logits, active_labels) + else: + loss = loss_fct(logits.view(-1, self.num_labels), labels.view(-1)) + return loss + else: + return logits + + +class BertForQuestionAnswering(BertPreTrainedModel): + """BERT model for Question Answering (span extraction). + This module is composed of the BERT model with a linear layer on top of + the sequence output that computes start_logits and end_logits + + Params: + `config`: a BertConfig class instance with the configuration to build a new model. + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the word token indices in the vocabulary(see the tokens preprocessing logic in the scripts + `extract_features.py`, `run_classifier.py` and `run_squad.py`) + `token_type_ids`: an optional torch.LongTensor of shape [batch_size, sequence_length] with the token + types indices selected in [0, 1]. Type 0 corresponds to a `sentence A` and type 1 corresponds to + a `sentence B` token (see BERT paper for more details). + `attention_mask`: an optional torch.LongTensor of shape [batch_size, sequence_length] with indices + selected in [0, 1]. It's a mask to be used if the input sequence length is smaller than the max + input sequence length in the current batch. It's the mask that we typically use for attention when + a batch has varying length sentences. + `start_positions`: position of the first token for the labeled span: torch.LongTensor of shape [batch_size]. + Positions are clamped to the length of the sequence and position outside of the sequence are not taken + into account for computing the loss. + `end_positions`: position of the last token for the labeled span: torch.LongTensor of shape [batch_size]. + Positions are clamped to the length of the sequence and position outside of the sequence are not taken + into account for computing the loss. + + Outputs: + if `start_positions` and `end_positions` are not `None`: + Outputs the total_loss which is the sum of the CrossEntropy loss for the start and end token positions. + if `start_positions` or `end_positions` is `None`: + Outputs a tuple of start_logits, end_logits which are the logits respectively for the start and end + position tokens of shape [batch_size, sequence_length]. + + Example usage: + ```python + # Already been converted into WordPiece token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]]) + token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]]) + + config = BertConfig(vocab_size_or_config_json_file=32000, hidden_size=768, + num_hidden_layers=12, num_attention_heads=12, intermediate_size=3072) + + model = BertForQuestionAnswering(config) + start_logits, end_logits = model(input_ids, token_type_ids, input_mask) + ``` + """ + def __init__(self, config): + super(BertForQuestionAnswering, self).__init__(config) + self.bert = BertModel(config) + # TODO check with Google if it's normal there is no dropout on the token classifier of SQuAD in the TF version + # self.dropout = nn.Dropout(config.hidden_dropout_prob) + self.qa_outputs = nn.Linear(config.hidden_size, 2) + self.apply(self.init_bert_weights) + + def forward(self, input_ids, token_type_ids=None, attention_mask=None, start_positions=None, end_positions=None): + sequence_output, _ = self.bert(input_ids, token_type_ids, attention_mask, output_all_encoded_layers=False) + logits = self.qa_outputs(sequence_output) + start_logits, end_logits = logits.split(1, dim=-1) + start_logits = start_logits.squeeze(-1) + end_logits = end_logits.squeeze(-1) + + if start_positions is not None and end_positions is not None: + # If we are on multi-GPU, split add a dimension + if len(start_positions.size()) > 1: + start_positions = start_positions.squeeze(-1) + if len(end_positions.size()) > 1: + end_positions = end_positions.squeeze(-1) + # sometimes the start/end positions are outside our model inputs, we ignore these terms + ignored_index = start_logits.size(1) + start_positions.clamp_(0, ignored_index) + end_positions.clamp_(0, ignored_index) + + loss_fct = CrossEntropyLoss(ignore_index=ignored_index) + start_loss = loss_fct(start_logits, start_positions) + end_loss = loss_fct(end_logits, end_positions) + total_loss = (start_loss + end_loss) / 2 + return total_loss + else: + return start_logits, end_logits diff --git a/pytorch_pretrained/modeling_gpt2.py b/pytorch_pretrained/modeling_gpt2.py new file mode 100644 index 0000000000000000000000000000000000000000..063c525d98cd91bbd5364dba809436f8aeed8233 --- /dev/null +++ b/pytorch_pretrained/modeling_gpt2.py @@ -0,0 +1,711 @@ +# coding=utf-8 +# Copyright 2018 The OpenAI Team Authors and HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""PyTorch OpenAI GPT-2 model.""" + +from __future__ import absolute_import, division, print_function, unicode_literals + +import collections +import copy +import json +import logging +import math +import os +import shutil +import tarfile +import tempfile +import sys +from io import open + +import torch +import torch.nn as nn +from torch.nn import CrossEntropyLoss +from torch.nn.parameter import Parameter + +from .file_utils import cached_path, CONFIG_NAME, WEIGHTS_NAME +from .modeling import BertLayerNorm as LayerNorm + +logger = logging.getLogger(__name__) + +PRETRAINED_MODEL_ARCHIVE_MAP = {"gpt2": "https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-pytorch_model.bin"} +PRETRAINED_CONFIG_ARCHIVE_MAP = {"gpt2": "https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-config.json"} + +def load_tf_weights_in_gpt2(model, gpt2_checkpoint_path): + """ Load tf checkpoints in a pytorch model + """ + try: + import re + import numpy as np + import tensorflow as tf + except ImportError: + print("Loading a TensorFlow models in PyTorch, requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + tf_path = os.path.abspath(gpt2_checkpoint_path) + print("Converting TensorFlow checkpoint from {}".format(tf_path)) + # Load weights from TF model + init_vars = tf.train.list_variables(tf_path) + names = [] + arrays = [] + for name, shape in init_vars: + print("Loading TF weight {} with shape {}".format(name, shape)) + array = tf.train.load_variable(tf_path, name) + names.append(name) + arrays.append(array.squeeze()) + + for name, array in zip(names, arrays): + name = name[6:] # skip "model/" + name = name.split('/') + pointer = model + for m_name in name: + if re.fullmatch(r'[A-Za-z]+\d+', m_name): + l = re.split(r'(\d+)', m_name) + else: + l = [m_name] + if l[0] == 'w' or l[0] == 'g': + pointer = getattr(pointer, 'weight') + elif l[0] == 'b': + pointer = getattr(pointer, 'bias') + elif l[0] == 'wpe' or l[0] == 'wte': + pointer = getattr(pointer, l[0]) + pointer = getattr(pointer, 'weight') + else: + pointer = getattr(pointer, l[0]) + if len(l) >= 2: + num = int(l[1]) + pointer = pointer[num] + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + print("Initialize PyTorch weight {}".format(name)) + pointer.data = torch.from_numpy(array) + return model + + +def gelu(x): + return 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 * torch.pow(x, 3)))) + + +class GPT2Config(object): + """Configuration class to store the configuration of a `GPT2Model`. + """ + + def __init__( + self, + vocab_size_or_config_json_file=50257, + n_positions=1024, + n_ctx=1024, + n_embd=768, + n_layer=12, + n_head=12, + layer_norm_epsilon=1e-5, + initializer_range=0.02, + ): + """Constructs GPT2Config. + + Args: + vocab_size_or_config_json_file: Vocabulary size of `inputs_ids` in `GPT2Model` or a configuration json file. + n_positions: Number of positional embeddings. + n_ctx: Size of the causal mask (usually same as n_positions). + n_embd: Dimensionality of the embeddings and hidden states. + n_layer: Number of hidden layers in the Transformer encoder. + n_head: Number of attention heads for each attention layer in + the Transformer encoder. + layer_norm_epsilon: epsilon to use in the layer norm layers + initializer_range: The sttdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + if isinstance(vocab_size_or_config_json_file, str) or (sys.version_info[0] == 2 + and isinstance(vocab_size_or_config_json_file, unicode)): + with open(vocab_size_or_config_json_file, "r", encoding="utf-8") as reader: + json_config = json.loads(reader.read()) + for key, value in json_config.items(): + self.__dict__[key] = value + elif isinstance(vocab_size_or_config_json_file, int): + self.vocab_size = vocab_size_or_config_json_file + self.n_ctx = n_ctx + self.n_positions = n_positions + self.n_embd = n_embd + self.n_layer = n_layer + self.n_head = n_head + self.layer_norm_epsilon = layer_norm_epsilon + self.initializer_range = initializer_range + else: + raise ValueError( + "First argument must be either a vocabulary size (int)" + "or the path to a pretrained model config file (str)" + ) + + @classmethod + def from_dict(cls, json_object): + """Constructs a `GPT2Config` from a Python dictionary of parameters.""" + config = GPT2Config(vocab_size_or_config_json_file=-1) + for key, value in json_object.items(): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `GPT2Config` from a json file of parameters.""" + with open(json_file, "r", encoding="utf-8") as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def __repr__(self): + return str(self.to_json_string()) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + def to_json_file(self, json_file_path): + """ Save this instance to a json file.""" + with open(json_file_path, "w", encoding='utf-8') as writer: + writer.write(self.to_json_string()) + + +class Conv1D(nn.Module): + def __init__(self, nf, nx): + super(Conv1D, self).__init__() + self.nf = nf + w = torch.empty(nx, nf) + nn.init.normal_(w, std=0.02) + self.weight = Parameter(w) + self.bias = Parameter(torch.zeros(nf)) + + def forward(self, x): + size_out = x.size()[:-1] + (self.nf,) + x = torch.addmm(self.bias, x.view(-1, x.size(-1)), self.weight) + x = x.view(*size_out) + return x + + +class Attention(nn.Module): + def __init__(self, nx, n_ctx, config, scale=False): + super(Attention, self).__init__() + n_state = nx # in Attention: n_state=768 (nx=n_embd) + # [switch nx => n_state from Block to Attention to keep identical to TF implem] + assert n_state % config.n_head == 0 + self.register_buffer("bias", torch.tril(torch.ones(n_ctx, n_ctx)).view(1, 1, n_ctx, n_ctx)) + self.n_head = config.n_head + self.split_size = n_state + self.scale = scale + self.c_attn = Conv1D(n_state * 3, nx) + self.c_proj = Conv1D(n_state, nx) + + def _attn(self, q, k, v): + w = torch.matmul(q, k) + if self.scale: + w = w / math.sqrt(v.size(-1)) + nd, ns = w.size(-2), w.size(-1) + b = self.bias[:, :, ns-nd:ns, :ns] + w = w * b - 1e4 * (1 - b) + + w = nn.Softmax(dim=-1)(w) + return torch.matmul(w, v) + + def merge_heads(self, x): + x = x.permute(0, 2, 1, 3).contiguous() + new_x_shape = x.size()[:-2] + (x.size(-2) * x.size(-1),) + return x.view(*new_x_shape) # in Tensorflow implem: fct merge_states + + def split_heads(self, x, k=False): + new_x_shape = x.size()[:-1] + (self.n_head, x.size(-1) // self.n_head) + x = x.view(*new_x_shape) # in Tensorflow implem: fct split_states + if k: + return x.permute(0, 2, 3, 1) # (batch, head, head_features, seq_length) + else: + return x.permute(0, 2, 1, 3) # (batch, head, seq_length, head_features) + + def forward(self, x, layer_past=None): + x = self.c_attn(x) + query, key, value = x.split(self.split_size, dim=2) + query = self.split_heads(query) + key = self.split_heads(key, k=True) + value = self.split_heads(value) + if layer_past is not None: + past_key, past_value = layer_past[0].transpose(-2, -1), layer_past[1] # transpose back cf below + key = torch.cat((past_key, key), dim=-1) + value = torch.cat((past_value, value), dim=-2) + present = torch.stack((key.transpose(-2, -1), value)) # transpose to have same shapes for stacking + a = self._attn(query, key, value) + a = self.merge_heads(a) + a = self.c_proj(a) + return a, present + + +class MLP(nn.Module): + def __init__(self, n_state, config): # in MLP: n_state=3072 (4 * n_embd) + super(MLP, self).__init__() + nx = config.n_embd + self.c_fc = Conv1D(n_state, nx) + self.c_proj = Conv1D(nx, n_state) + self.act = gelu + + def forward(self, x): + h = self.act(self.c_fc(x)) + h2 = self.c_proj(h) + return h2 + + +class Block(nn.Module): + def __init__(self, n_ctx, config, scale=False): + super(Block, self).__init__() + nx = config.n_embd + self.ln_1 = LayerNorm(nx, eps=config.layer_norm_epsilon) + self.attn = Attention(nx, n_ctx, config, scale) + self.ln_2 = LayerNorm(nx, eps=config.layer_norm_epsilon) + self.mlp = MLP(4 * nx, config) + + def forward(self, x, layer_past=None): + a, present = self.attn(self.ln_1(x), layer_past=layer_past) + x = x + a + m = self.mlp(self.ln_2(x)) + x = x + m + return x, present + + +class GPT2LMHead(nn.Module): + """ Language Model Head for the transformer """ + + def __init__(self, model_embeddings_weights, config): + super(GPT2LMHead, self).__init__() + self.n_embd = config.n_embd + self.set_embeddings_weights(model_embeddings_weights) + + def set_embeddings_weights(self, model_embeddings_weights): + embed_shape = model_embeddings_weights.shape + self.decoder = nn.Linear(embed_shape[1], embed_shape[0], bias=False) + self.decoder.weight = model_embeddings_weights # Tied weights + + def forward(self, hidden_state): + # Truncated Language modeling logits (we remove the last token) + # h_trunc = h[:, :-1].contiguous().view(-1, self.n_embd) + lm_logits = self.decoder(hidden_state) + return lm_logits + + +class GPT2MultipleChoiceHead(nn.Module): + """ Classifier Head for the transformer """ + + def __init__(self, config): + super(GPT2MultipleChoiceHead, self).__init__() + self.n_embd = config.n_embd + self.linear = nn.Linear(config.n_embd, 1) + + nn.init.normal_(self.linear.weight, std=0.02) + nn.init.normal_(self.linear.bias, 0) + + def forward(self, hidden_states, mc_token_ids): + # Classification logits + # hidden_state (bsz, num_choices, seq_length, hidden_size) + # mc_token_ids (bsz, num_choices) + mc_token_ids = mc_token_ids.unsqueeze(-1).unsqueeze(-1).expand(-1, -1, -1, hidden_states.size(-1)) + # (bsz, num_choices, 1, hidden_size) + multiple_choice_h = hidden_states.gather(2, mc_token_ids).squeeze(2) + # (bsz, num_choices, hidden_size) + multiple_choice_logits = self.linear(multiple_choice_h).squeeze(-1) + # (bsz, num_choices) + return multiple_choice_logits + + +class GPT2PreTrainedModel(nn.Module): + """ An abstract class to handle weights initialization and + a simple interface for dowloading and loading pretrained models. + """ + + def __init__(self, config, *inputs, **kwargs): + super(GPT2PreTrainedModel, self).__init__() + if not isinstance(config, GPT2Config): + raise ValueError( + "Parameter config in `{}(config)` should be an instance of class `GPT2Config`. " + "To create a model from a pretrained model use " + "`model = {}.from_pretrained(PRETRAINED_MODEL_NAME)`".format( + self.__class__.__name__, self.__class__.__name__ + ) + ) + self.config = config + + def set_tied(self): + pass + + def init_weights(self, module): + """ Initialize the weights. + """ + if isinstance(module, (nn.Linear, nn.Embedding)): + # Slightly different from the TF version which uses truncated_normal for initialization + # cf https://github.com/pytorch/pytorch/pull/5617 + module.weight.data.normal_(mean=0.0, std=self.config.initializer_range) + elif isinstance(module, LayerNorm): + module.bias.data.zero_() + module.weight.data.fill_(1.0) + if isinstance(module, nn.Linear) and module.bias is not None: + module.bias.data.zero_() + + @classmethod + def from_pretrained( + cls, pretrained_model_name_or_path, state_dict=None, cache_dir=None, from_tf=False, *inputs, **kwargs + ): + """ + Instantiate a GPT2PreTrainedModel from a pre-trained model file or a pytorch state dict. + Download and cache the pre-trained model file if needed. + + Params: + pretrained_model_name_or_path: either: + - a str with the name of a pre-trained model to load selected in the list of: + . `gpt2` + - a path or url to a pretrained model archive containing: + . `gpt2_config.json` a configuration file for the model + . `pytorch_model.bin` a PyTorch dump of a GPT2Model instance + - a path or url to a pretrained model archive containing: + . `gpt2_config.json` a configuration file for the model + . a TensorFlow checkpoint with trained weights + from_tf: should we load the weights from a locally saved TensorFlow checkpoint + cache_dir: an optional path to a folder in which the pre-trained models will be cached. + state_dict: an optional state dictionary (collections.OrderedDict object) to use instead of pre-trained models + *inputs, **kwargs: additional input for the specific GPT class + """ + if pretrained_model_name_or_path in PRETRAINED_MODEL_ARCHIVE_MAP: + archive_file = PRETRAINED_MODEL_ARCHIVE_MAP[pretrained_model_name_or_path] + config_file = PRETRAINED_CONFIG_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + archive_file = os.path.join(pretrained_model_name_or_path, WEIGHTS_NAME) + config_file = os.path.join(pretrained_model_name_or_path, CONFIG_NAME) + # redirect to the cache, if necessary + try: + resolved_archive_file = cached_path(archive_file, cache_dir=cache_dir) + resolved_config_file = cached_path(config_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} and {} " + "at this path or url.".format( + pretrained_model_name_or_path, ", ".join(PRETRAINED_MODEL_ARCHIVE_MAP.keys()), pretrained_model_name_or_path, + archive_file, config_file + ) + ) + return None + if resolved_archive_file == archive_file and resolved_config_file == config_file: + logger.info("loading weights file {}".format(archive_file)) + logger.info("loading configuration file {}".format(config_file)) + else: + logger.info("loading weights file {} from cache at {}".format( + archive_file, resolved_archive_file)) + logger.info("loading configuration file {} from cache at {}".format( + config_file, resolved_config_file)) + # Load config + config = GPT2Config.from_json_file(resolved_config_file) + logger.info("Model config {}".format(config)) + # Instantiate model. + model = cls(config, *inputs, **kwargs) + if state_dict is None and not from_tf: + state_dict = torch.load(resolved_archive_file, map_location='cpu') + if from_tf: + # Directly load from a TensorFlow checkpoint (stored as NumPy array) + return load_tf_weights_in_gpt2(model, resolved_archive_file) + + old_keys = [] + new_keys = [] + for key in state_dict.keys(): + new_key = None + if key.endswith(".g"): + new_key = key[:-2] + ".weight" + elif key.endswith(".b"): + new_key = key[:-2] + ".bias" + elif key.endswith(".w"): + new_key = key[:-2] + ".weight" + if new_key: + old_keys.append(key) + new_keys.append(new_key) + for old_key, new_key in zip(old_keys, new_keys): + state_dict[new_key] = state_dict.pop(old_key) + + missing_keys = [] + unexpected_keys = [] + error_msgs = [] + # copy state_dict so _load_from_state_dict can modify it + metadata = getattr(state_dict, "_metadata", None) + state_dict = state_dict.copy() + if metadata is not None: + state_dict._metadata = metadata + + def load(module, prefix=""): + local_metadata = {} if metadata is None else metadata.get(prefix[:-1], {}) + module._load_from_state_dict( + state_dict, prefix, local_metadata, True, missing_keys, unexpected_keys, error_msgs + ) + for name, child in module._modules.items(): + if child is not None: + load(child, prefix + name + ".") + + start_model = model + if hasattr(model, "transformer") and all(not s.startswith('transformer.') for s in state_dict.keys()): + start_model = model.transformer + load(start_model, prefix="") + + if len(missing_keys) > 0: + logger.info( + "Weights of {} not initialized from pretrained model: {}".format(model.__class__.__name__, missing_keys) + ) + if len(unexpected_keys) > 0: + logger.info( + "Weights from pretrained model not used in {}: {}".format(model.__class__.__name__, unexpected_keys) + ) + if len(error_msgs) > 0: + raise RuntimeError( + "Error(s) in loading state_dict for {}:\n\t{}".format(model.__class__.__name__, "\n\t".join(error_msgs)) + ) + + # Make sure we are still sharing the output and input embeddings after loading weights + model.set_tied() + return model + + +class GPT2Model(GPT2PreTrainedModel): + """OpenAI GPT-2 model ("Language Models are Unsupervised Multitask Learners"). + + Params: + config: a GPT2Config class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] (or more generally [d_1, ..., d_n, sequence_length] + were d_1 ... d_n are arbitrary dimensions) with the word BPE token indices selected in the range [0, config.vocab_size[ + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + `past`: an optional list of torch.LongTensor that contains pre-computed hidden-states + (key and values in the attention blocks) to speed up sequential decoding + (this is the presents output of the model, cf. below). + + Outputs a tuple consisting of: + `hidden_states`: the encoded-hidden-states at the top of the model + as a torch.FloatTensor of size [batch_size, sequence_length, hidden_size] + (or more generally [d_1, ..., d_n, hidden_size] were d_1 ... d_n are the dimension of input_ids) + `presents`: a list of pre-computed hidden-states (key and values in each attention blocks) as + torch.FloatTensors. They can be reused to speed up sequential decoding. + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + + config = modeling_gpt2.GPT2Config() + + model = modeling_gpt2.GPT2Model(config) + hidden_states, presents = model(input_ids) + ``` + """ + + def __init__(self, config): + super(GPT2Model, self).__init__(config) + self.wte = nn.Embedding(config.vocab_size, config.n_embd) + self.wpe = nn.Embedding(config.n_positions, config.n_embd) + block = Block(config.n_ctx, config, scale=True) + self.h = nn.ModuleList([copy.deepcopy(block) for _ in range(config.n_layer)]) + self.ln_f = LayerNorm(config.n_embd, eps=config.layer_norm_epsilon) + + self.apply(self.init_weights) + + def forward(self, input_ids, position_ids=None, token_type_ids=None, past=None): + if past is None: + past_length = 0 + past = [None] * len(self.h) + else: + past_length = past[0][0].size(-2) + if position_ids is None: + position_ids = torch.arange(past_length, input_ids.size(-1) + past_length, dtype=torch.long, device=input_ids.device) + position_ids = position_ids.unsqueeze(0).expand_as(input_ids) + + input_shape = input_ids.size() + input_ids = input_ids.view(-1, input_ids.size(-1)) + position_ids = position_ids.view(-1, position_ids.size(-1)) + + inputs_embeds = self.wte(input_ids) + position_embeds = self.wpe(position_ids) + if token_type_ids is not None: + token_type_ids = token_type_ids.view(-1, token_type_ids.size(-1)) + token_type_embeds = self.wte(token_type_ids) + else: + token_type_embeds = 0 + hidden_states = inputs_embeds + position_embeds + token_type_embeds + presents = [] + for block, layer_past in zip(self.h, past): + hidden_states, present = block(hidden_states, layer_past) + presents.append(present) + hidden_states = self.ln_f(hidden_states) + output_shape = input_shape + (hidden_states.size(-1),) + return hidden_states.view(*output_shape), presents + + +class GPT2LMHeadModel(GPT2PreTrainedModel): + """OpenAI GPT-2 model with a Language Modeling head ("Language Models are Unsupervised Multitask Learners"). + + Params: + config: a GPT2Config class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] (or more generally [d_1, ..., d_n, sequence_length] + were d_1 ... d_n are arbitrary dimensions) with the word BPE token indices selected in the range [0, config.vocab_size[ + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + `lm_labels`: optional language modeling labels: torch.LongTensor of shape [batch_size, sequence_length] + with indices selected in [-1, 0, ..., vocab_size]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., vocab_size] + `past`: an optional list of torch.LongTensor that contains pre-computed hidden-states + (key and values in the attention blocks) to speed up sequential decoding + (this is the presents output of the model, cf. below). + + Outputs: + if `lm_labels` is not `None`: + Outputs the language modeling loss. + else a tuple: + `lm_logits`: the language modeling logits as a torch.FloatTensor of size [batch_size, sequence_length, config.vocab_size] + (or more generally [d_1, ..., d_n, config.vocab_size] were d_1 ... d_n are the dimension of input_ids) + `presents`: a list of pre-computed hidden-states (key and values in each attention blocks) as + torch.FloatTensors. They can be reused to speed up sequential decoding. + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + + config = modeling_gpt2.GPT2Config() + + model = modeling_gpt2.GPT2LMHeadModel(config) + lm_logits, presents = model(input_ids) + ``` + """ + + def __init__(self, config): + super(GPT2LMHeadModel, self).__init__(config) + self.transformer = GPT2Model(config) + self.lm_head = GPT2LMHead(self.transformer.wte.weight, config) + self.apply(self.init_weights) + + def set_tied(self): + """ Make sure we are sharing the embeddings + """ + self.lm_head.set_embeddings_weights(self.transformer.wte.weight) + + def forward(self, input_ids, position_ids=None, token_type_ids=None, lm_labels=None, past=None): + hidden_states, presents = self.transformer(input_ids, position_ids, token_type_ids, past) + lm_logits = self.lm_head(hidden_states) + if lm_labels is not None: + # Shift so that tokens < n predict n + shift_logits = lm_logits[:, :-1].contiguous() + shift_labels = lm_labels[:, 1:].contiguous() + + # Flatten the tokens + loss_fct = CrossEntropyLoss(ignore_index=-1) + loss = loss_fct(shift_logits.view(-1, shift_logits.size(-1)), + shift_labels.view(-1)) + return loss + return lm_logits, presents + + +class GPT2DoubleHeadsModel(GPT2PreTrainedModel): + """OpenAI GPT-2 model with a Language Modeling and a Multiple Choice head ("Language Models are Unsupervised Multitask Learners"). + + Params: + config: a GPT2Config class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, num_choices, sequence_length] with the BPE token + indices selected in the range [0, config.vocab_size[ + `mc_token_ids`: a torch.LongTensor of shape [batch_size, num_choices] with the index of the token from + which we should take the hidden state to feed the multiple choice classifier (usually last token of the sequence) + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + `lm_labels`: optional language modeling labels: torch.LongTensor of shape [batch_size, num_choices, sequence_length] + with indices selected in [-1, 0, ..., config.vocab_size]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., config.vocab_size] + `multiple_choice_labels`: optional multiple choice labels: torch.LongTensor of shape [batch_size] + with indices selected in [0, ..., num_choices]. + `past`: an optional list of torch.LongTensor that contains pre-computed hidden-states + (key and values in the attention blocks) to speed up sequential decoding + (this is the presents output of the model, cf. below). + + Outputs: + if `lm_labels` and `multiple_choice_labels` are not `None`: + Outputs a tuple of losses with the language modeling loss and the multiple choice loss. + else: a tuple with + `lm_logits`: the language modeling logits as a torch.FloatTensor of size [batch_size, num_choices, sequence_length, config.vocab_size] + `multiple_choice_logits`: the multiple choice logits as a torch.FloatTensor of size [batch_size, num_choices] + `presents`: a list of pre-computed hidden-states (key and values in each attention blocks) as + torch.FloatTensors. They can be reused to speed up sequential decoding. + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[[31, 51, 99], [15, 5, 0]]]) # (bsz, number of choice, seq length) + mc_token_ids = torch.LongTensor([[2], [1]]) # (bsz, number of choice) + + config = modeling_gpt2.GPT2Config() + + model = modeling_gpt2.GPT2LMHeadModel(config) + lm_logits, multiple_choice_logits, presents = model(input_ids, mc_token_ids) + ``` + """ + + def __init__(self, config): + super(GPT2DoubleHeadsModel, self).__init__(config) + self.transformer = GPT2Model(config) + self.lm_head = GPT2LMHead(self.transformer.wte.weight, config) + self.multiple_choice_head = GPT2MultipleChoiceHead(config) + self.apply(self.init_weights) + + def set_tied(self): + """ Make sure we are sharing the embeddings + """ + self.lm_head.set_embeddings_weights(self.transformer.wte.weight) + + def forward(self, input_ids, mc_token_ids, lm_labels=None, mc_labels=None, token_type_ids=None, position_ids=None, past=None): + hidden_states, presents = self.transformer(input_ids, position_ids, token_type_ids, past) + lm_logits = self.lm_head(hidden_states) + mc_logits = self.multiple_choice_head(hidden_states, mc_token_ids) + losses = [] + if lm_labels is not None: + shift_logits = lm_logits[:, :-1].contiguous() + shift_labels = lm_labels[:, 1:].contiguous() + loss_fct = CrossEntropyLoss(ignore_index=-1) + losses.append(loss_fct(shift_logits.view(-1, + shift_logits.size(-1)), shift_labels.view(-1))) + if mc_labels is not None: + loss_fct = CrossEntropyLoss() + losses.append(loss_fct(mc_logits.view(-1, mc_logits.size(-1)), mc_labels.view(-1))) + if losses: + return losses + return lm_logits, mc_logits, presents diff --git a/pytorch_pretrained/modeling_openai.py b/pytorch_pretrained/modeling_openai.py new file mode 100644 index 0000000000000000000000000000000000000000..f956462ddbfff09dde4c8595cada600ade404ed2 --- /dev/null +++ b/pytorch_pretrained/modeling_openai.py @@ -0,0 +1,822 @@ +# coding=utf-8 +# Copyright 2018 The OpenAI Team Authors and HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""PyTorch OpenAI GPT model.""" + +from __future__ import absolute_import, division, print_function, unicode_literals + +import collections +import copy +import json +import logging +import math +import os +import shutil +import tarfile +import tempfile +import sys +from io import open + +import torch +import torch.nn as nn +from torch.nn import CrossEntropyLoss +from torch.nn.parameter import Parameter + +from .file_utils import cached_path, CONFIG_NAME, WEIGHTS_NAME +from .modeling import BertLayerNorm as LayerNorm + +logger = logging.getLogger(__name__) + +PRETRAINED_MODEL_ARCHIVE_MAP = {"openai-gpt": "https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-pytorch_model.bin"} +PRETRAINED_CONFIG_ARCHIVE_MAP = {"openai-gpt": "https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-config.json"} + + +def load_tf_weights_in_openai_gpt(model, openai_checkpoint_folder_path): + """ Load tf pre-trained weights in a pytorch model (from NumPy arrays here) + """ + import re + import numpy as np + print("Loading weights...") + names = json.load(open(openai_checkpoint_folder_path + '/parameters_names.json', "r", encoding='utf-8')) + shapes = json.load(open(openai_checkpoint_folder_path + '/params_shapes.json', "r", encoding='utf-8')) + offsets = np.cumsum([np.prod(shape) for shape in shapes]) + init_params = [np.load(openai_checkpoint_folder_path + '/params_{}.npy'.format(n)) for n in range(10)] + init_params = np.split(np.concatenate(init_params, 0), offsets)[:-1] + init_params = [param.reshape(shape) for param, shape in zip(init_params, shapes)] + + # This was used when we had a single embedding matrix for positions and tokens + # init_params[0] = np.concatenate([init_params[1], init_params[0]], 0) + # del init_params[1] + init_params = [arr.squeeze() for arr in init_params] + + try: + assert model.tokens_embed.weight.shape == init_params[1].shape + assert model.positions_embed.weight.shape == init_params[0].shape + except AssertionError as e: + e.args += (model.tokens_embed.weight.shape, init_params[1].shape) + e.args += (model.positions_embed.weight.shape, init_params[0].shape) + raise + + model.tokens_embed.weight.data = torch.from_numpy(init_params[1]) + model.positions_embed.weight.data = torch.from_numpy(init_params[0]) + names.pop(0) + # Pop position and token embedding arrays + init_params.pop(0) + init_params.pop(0) + + for name, array in zip(names, init_params): # names[1:n_transfer], init_params[1:n_transfer]): + name = name[6:] # skip "model/" + assert name[-2:] == ":0" + name = name[:-2] + name = name.split('/') + pointer = model + for m_name in name: + if re.fullmatch(r'[A-Za-z]+\d+', m_name): + l = re.split(r'(\d+)', m_name) + else: + l = [m_name] + if l[0] == 'g': + pointer = getattr(pointer, 'weight') + elif l[0] == 'b': + pointer = getattr(pointer, 'bias') + elif l[0] == 'w': + pointer = getattr(pointer, 'weight') + else: + pointer = getattr(pointer, l[0]) + if len(l) >= 2: + num = int(l[1]) + pointer = pointer[num] + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + print("Initialize PyTorch weight {}".format(name)) + pointer.data = torch.from_numpy(array) + return model + + +def gelu(x): + return 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 * torch.pow(x, 3)))) + + +def swish(x): + return x * torch.sigmoid(x) + + +ACT_FNS = {"relu": nn.ReLU, "swish": swish, "gelu": gelu} + + +class OpenAIGPTConfig(object): + """Configuration class to store the configuration of a `OpenAIGPTModel`. + """ + + def __init__( + self, + vocab_size_or_config_json_file=40478, + n_special=0, + n_positions=512, + n_ctx=512, + n_embd=768, + n_layer=12, + n_head=12, + afn="gelu", + resid_pdrop=0.1, + embd_pdrop=0.1, + attn_pdrop=0.1, + layer_norm_epsilon=1e-5, + initializer_range=0.02, + ): + """Constructs OpenAIGPTConfig. + + Args: + vocab_size_or_config_json_file: Vocabulary size of `inputs_ids` in `OpenAIGPTModel` or a configuration json file. + n_special: The number of special tokens to learn during fine-tuning ('[SEP]', '[CLF]', ...) + n_positions: Number of positional embeddings. + n_ctx: Size of the causal mask (usually same as n_positions). + n_embd: Dimensionality of the embeddings and hidden states. + n_layer: Number of hidden layers in the Transformer encoder. + n_head: Number of attention heads for each attention layer in + the Transformer encoder. + afn: The non-linear activation function (function or string) in the + encoder and pooler. If string, "gelu", "relu" and "swish" are supported. + resid_pdrop: The dropout probabilitiy for all fully connected + layers in the embeddings, encoder, and pooler. + attn_pdrop: The dropout ratio for the attention + probabilities. + embd_pdrop: The dropout ratio for the embeddings. + layer_norm_epsilon: epsilon to use in the layer norm layers + initializer_range: The sttdev of the truncated_normal_initializer for + initializing all weight matrices. + """ + if isinstance(vocab_size_or_config_json_file, str) or (sys.version_info[0] == 2 + and isinstance(vocab_size_or_config_json_file, unicode)): + with open(vocab_size_or_config_json_file, "r", encoding="utf-8") as reader: + json_config = json.loads(reader.read()) + for key, value in json_config.items(): + self.__dict__[key] = value + elif isinstance(vocab_size_or_config_json_file, int): + self.vocab_size = vocab_size_or_config_json_file + self.n_special = n_special + self.n_ctx = n_ctx + self.n_positions = n_positions + self.n_embd = n_embd + self.n_layer = n_layer + self.n_head = n_head + self.afn = afn + self.resid_pdrop = resid_pdrop + self.embd_pdrop = embd_pdrop + self.attn_pdrop = attn_pdrop + self.layer_norm_epsilon = layer_norm_epsilon + self.initializer_range = initializer_range + else: + raise ValueError( + "First argument must be either a vocabulary size (int)" + "or the path to a pretrained model config file (str)" + ) + + @property + def total_tokens_embeddings(self): + return self.vocab_size + self.n_special + + @classmethod + def from_dict(cls, json_object): + """Constructs a `OpenAIGPTConfig` from a Python dictionary of parameters.""" + config = OpenAIGPTConfig(vocab_size_or_config_json_file=-1) + for key, value in json_object.items(): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `OpenAIGPTConfig` from a json file of parameters.""" + with open(json_file, "r", encoding="utf-8") as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def __repr__(self): + return str(self.to_json_string()) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + def to_json_file(self, json_file_path): + """ Save this instance to a json file.""" + with open(json_file_path, "w", encoding='utf-8') as writer: + writer.write(self.to_json_string()) + + +class Conv1D(nn.Module): + def __init__(self, nf, rf, nx): + super(Conv1D, self).__init__() + self.rf = rf + self.nf = nf + if rf == 1: # faster 1x1 conv + w = torch.empty(nx, nf) + nn.init.normal_(w, std=0.02) + self.weight = Parameter(w) + self.bias = Parameter(torch.zeros(nf)) + else: # was used to train LM + raise NotImplementedError + + def forward(self, x): + if self.rf == 1: + size_out = x.size()[:-1] + (self.nf,) + x = torch.addmm(self.bias, x.view(-1, x.size(-1)), self.weight) + x = x.view(*size_out) + else: + raise NotImplementedError + return x + + +class Attention(nn.Module): + def __init__(self, nx, n_ctx, config, scale=False): + super(Attention, self).__init__() + n_state = nx # in Attention: n_state=768 (nx=n_embd) + # [switch nx => n_state from Block to Attention to keep identical to TF implem] + assert n_state % config.n_head == 0 + self.register_buffer("bias", torch.tril(torch.ones(n_ctx, n_ctx)).view(1, 1, n_ctx, n_ctx)) + self.n_head = config.n_head + self.split_size = n_state + self.scale = scale + self.c_attn = Conv1D(n_state * 3, 1, nx) + self.c_proj = Conv1D(n_state, 1, nx) + self.attn_dropout = nn.Dropout(config.attn_pdrop) + self.resid_dropout = nn.Dropout(config.resid_pdrop) + + def _attn(self, q, k, v): + w = torch.matmul(q, k) + if self.scale: + w = w / math.sqrt(v.size(-1)) + # w = w * self.bias + -1e9 * (1 - self.bias) # TF implem method: mask_attn_weights + # XD: self.b may be larger than w, so we need to crop it + b = self.bias[:, :, : w.size(-2), : w.size(-1)] + w = w * b + -1e9 * (1 - b) + + w = nn.Softmax(dim=-1)(w) + w = self.attn_dropout(w) + return torch.matmul(w, v) + + def merge_heads(self, x): + x = x.permute(0, 2, 1, 3).contiguous() + new_x_shape = x.size()[:-2] + (x.size(-2) * x.size(-1),) + return x.view(*new_x_shape) # in Tensorflow implem: fct merge_states + + def split_heads(self, x, k=False): + new_x_shape = x.size()[:-1] + (self.n_head, x.size(-1) // self.n_head) + x = x.view(*new_x_shape) # in Tensorflow implem: fct split_states + if k: + return x.permute(0, 2, 3, 1) + else: + return x.permute(0, 2, 1, 3) + + def forward(self, x): + x = self.c_attn(x) + query, key, value = x.split(self.split_size, dim=2) + query = self.split_heads(query) + key = self.split_heads(key, k=True) + value = self.split_heads(value) + a = self._attn(query, key, value) + a = self.merge_heads(a) + a = self.c_proj(a) + a = self.resid_dropout(a) + return a + + +class MLP(nn.Module): + def __init__(self, n_state, config): # in MLP: n_state=3072 (4 * n_embd) + super(MLP, self).__init__() + nx = config.n_embd + self.c_fc = Conv1D(n_state, 1, nx) + self.c_proj = Conv1D(nx, 1, n_state) + self.act = ACT_FNS[config.afn] + self.dropout = nn.Dropout(config.resid_pdrop) + + def forward(self, x): + h = self.act(self.c_fc(x)) + h2 = self.c_proj(h) + return self.dropout(h2) + + +class Block(nn.Module): + def __init__(self, n_ctx, config, scale=False): + super(Block, self).__init__() + nx = config.n_embd + self.attn = Attention(nx, n_ctx, config, scale) + self.ln_1 = LayerNorm(nx, eps=config.layer_norm_epsilon) + self.mlp = MLP(4 * nx, config) + self.ln_2 = LayerNorm(nx, eps=config.layer_norm_epsilon) + + def forward(self, x): + a = self.attn(x) + n = self.ln_1(x + a) + m = self.mlp(n) + h = self.ln_2(n + m) + return h + + +class OpenAIGPTLMHead(nn.Module): + """ Language Model Head for the transformer """ + + def __init__(self, model_embeddings_weights, config): + super(OpenAIGPTLMHead, self).__init__() + self.n_embd = config.n_embd + self.set_embeddings_weights(model_embeddings_weights) + + def set_embeddings_weights(self, model_embeddings_weights): + embed_shape = model_embeddings_weights.shape + self.decoder = nn.Linear(embed_shape[1], embed_shape[0], bias=False) + self.decoder.weight = model_embeddings_weights # Tied weights + + def forward(self, hidden_state): + # Truncated Language modeling logits (we remove the last token) + # h_trunc = h[:, :-1].contiguous().view(-1, self.n_embd) + lm_logits = self.decoder(hidden_state) + return lm_logits + + +class OpenAIGPTMultipleChoiceHead(nn.Module): + """ Classifier Head for the transformer """ + + def __init__(self, config): + super(OpenAIGPTMultipleChoiceHead, self).__init__() + self.n_embd = config.n_embd + # self.multiple_choice_token = multiple_choice_token + self.dropout = nn.Dropout2d(config.resid_pdrop) # To reproduce the noise_shape parameter of TF implementation + self.linear = nn.Linear(config.n_embd, 1) + + nn.init.normal_(self.linear.weight, std=0.02) + nn.init.normal_(self.linear.bias, 0) + + def forward(self, hidden_states, mc_token_ids): + # Classification logits + # hidden_state (bsz, num_choices, seq_length, hidden_size) + # mc_token_ids (bsz, num_choices) + mc_token_ids = mc_token_ids.unsqueeze(-1).unsqueeze(-1).expand(-1, -1, -1, hidden_states.size(-1)) + # (bsz, num_choices, 1, hidden_size) + multiple_choice_h = hidden_states.gather(2, mc_token_ids).squeeze(2) + # (bsz, num_choices, hidden_size) + multiple_choice_h = self.dropout(multiple_choice_h.transpose(1, 2)).transpose(1, 2) + multiple_choice_logits = self.linear(multiple_choice_h).squeeze(-1) + # (bsz, num_choices) + return multiple_choice_logits + + +class OpenAIGPTPreTrainedModel(nn.Module): + """ An abstract class to handle weights initialization and + a simple interface for dowloading and loading pretrained models. + """ + + def __init__(self, config, *inputs, **kwargs): + super(OpenAIGPTPreTrainedModel, self).__init__() + if not isinstance(config, OpenAIGPTConfig): + raise ValueError( + "Parameter config in `{}(config)` should be an instance of class `OpenAIGPTConfig`. " + "To create a model from a pretrained model use " + "`model = {}.from_pretrained(PRETRAINED_MODEL_NAME)`".format( + self.__class__.__name__, self.__class__.__name__ + ) + ) + self.config = config + + def init_weights(self, module): + """ Initialize the weights. + """ + if isinstance(module, (nn.Linear, nn.Embedding)): + # Slightly different from the TF version which uses truncated_normal for initialization + # cf https://github.com/pytorch/pytorch/pull/5617 + module.weight.data.normal_(mean=0.0, std=self.config.initializer_range) + elif isinstance(module, LayerNorm): + module.bias.data.zero_() + module.weight.data.fill_(1.0) + if isinstance(module, nn.Linear) and module.bias is not None: + module.bias.data.zero_() + + def set_num_special_tokens(self, num_special_tokens): + pass + + @classmethod + def from_pretrained( + cls, pretrained_model_name_or_path, num_special_tokens=None, state_dict=None, cache_dir=None, from_tf=False, *inputs, **kwargs + ): + """ + Instantiate a OpenAIGPTPreTrainedModel from a pre-trained model file or a pytorch state dict. + Download and cache the pre-trained model file if needed. + + Params: + pretrained_model_name_or_path: either: + - a str with the name of a pre-trained model to load selected in the list of: + . `openai-gpt` + - a path or url to a pretrained model archive containing: + . `openai_gpt_config.json` a configuration file for the model + . `pytorch_model.bin` a PyTorch dump of a OpenAIGPTModel instance + - a path or url to a pretrained model archive containing: + . `bert_config.json` a configuration file for the model + . a series of NumPy files containing OpenAI TensorFlow trained weights + from_tf: should we load the weights from a locally saved TensorFlow checkpoint + cache_dir: an optional path to a folder in which the pre-trained models will be cached. + state_dict: an optional state dictionnary (collections.OrderedDict object) to use instead of pre-trained models + *inputs, **kwargs: additional input for the specific Bert class + (ex: num_labels for BertForSequenceClassification) + """ + if pretrained_model_name_or_path in PRETRAINED_MODEL_ARCHIVE_MAP: + archive_file = PRETRAINED_MODEL_ARCHIVE_MAP[pretrained_model_name_or_path] + config_file = PRETRAINED_CONFIG_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + archive_file = os.path.join(pretrained_model_name_or_path, WEIGHTS_NAME) + config_file = os.path.join(pretrained_model_name_or_path, CONFIG_NAME) + # redirect to the cache, if necessary + try: + resolved_archive_file = cached_path(archive_file, cache_dir=cache_dir) + resolved_config_file = cached_path(config_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} and {} " + "at this path or url.".format( + pretrained_model_name_or_path, ", ".join(PRETRAINED_MODEL_ARCHIVE_MAP.keys()), pretrained_model_name_or_path, + archive_file, config_file + ) + ) + return None + if resolved_archive_file == archive_file and resolved_config_file == config_file: + logger.info("loading weights file {}".format(archive_file)) + logger.info("loading configuration file {}".format(config_file)) + else: + logger.info("loading weights file {} from cache at {}".format( + archive_file, resolved_archive_file)) + logger.info("loading configuration file {} from cache at {}".format( + config_file, resolved_config_file)) + # Load config + config = OpenAIGPTConfig.from_json_file(resolved_config_file) + logger.info("Model config {}".format(config)) + # Instantiate model. + model = cls(config, *inputs, **kwargs) + if state_dict is None and not from_tf: + state_dict = torch.load(resolved_archive_file, map_location='cpu') + if from_tf: + # Directly load from a TensorFlow checkpoint (stored as NumPy array) + return load_tf_weights_in_openai_gpt(model, resolved_archive_file) + + old_keys = [] + new_keys = [] + for key in state_dict.keys(): + new_key = None + if key.endswith(".g"): + new_key = key[:-2] + ".weight" + elif key.endswith(".b"): + new_key = key[:-2] + ".bias" + elif key.endswith(".w"): + new_key = key[:-2] + ".weight" + if new_key: + old_keys.append(key) + new_keys.append(new_key) + for old_key, new_key in zip(old_keys, new_keys): + state_dict[new_key] = state_dict.pop(old_key) + + missing_keys = [] + unexpected_keys = [] + error_msgs = [] + # copy state_dict so _load_from_state_dict can modify it + metadata = getattr(state_dict, "_metadata", None) + state_dict = state_dict.copy() + if metadata is not None: + state_dict._metadata = metadata + + def load(module, prefix=""): + local_metadata = {} if metadata is None else metadata.get(prefix[:-1], {}) + module._load_from_state_dict( + state_dict, prefix, local_metadata, True, missing_keys, unexpected_keys, error_msgs + ) + for name, child in module._modules.items(): + if child is not None: + load(child, prefix + name + ".") + + start_model = model + if hasattr(model, "transformer") and all(not s.startswith('transformer.') for s in state_dict.keys()): + start_model = model.transformer + load(start_model, prefix="") + + if len(missing_keys) > 0: + logger.info( + "Weights of {} not initialized from pretrained model: {}".format(model.__class__.__name__, missing_keys) + ) + if len(unexpected_keys) > 0: + logger.info( + "Weights from pretrained model not used in {}: {}".format(model.__class__.__name__, unexpected_keys) + ) + if len(error_msgs) > 0: + raise RuntimeError( + "Error(s) in loading state_dict for {}:\n\t{}".format(model.__class__.__name__, "\n\t".join(error_msgs)) + ) + + # Add additional embeddings for special tokens if needed + # This step also make sure we are still sharing the output and input embeddings after loading weights + model.set_num_special_tokens(num_special_tokens if num_special_tokens is not None else config.n_special) + return model + + +class OpenAIGPTModel(OpenAIGPTPreTrainedModel): + """OpenAI GPT model ("Improving Language Understanding by Generative Pre-Training"). + + OpenAI GPT use a single embedding matrix to store the word and special embeddings. + Special tokens embeddings are additional tokens that are not pre-trained: [SEP], [CLS]... + Special tokens need to be trained during the fine-tuning if you use them. + The number of special embeddings can be controled using the `set_num_special_tokens(num_special_tokens)` function. + + The embeddings are ordered as follow in the token embeddings matrice: + [0, ---------------------- + ... -> word embeddings + config.vocab_size - 1, ______________________ + config.vocab_size, + ... -> special embeddings + config.vocab_size + config.n_special - 1] ______________________ + + where total_tokens_embeddings can be obtained as config.total_tokens_embeddings and is: + total_tokens_embeddings = config.vocab_size + config.n_special + You should use the associate indices to index the embeddings. + + Params: + config: a OpenAIGPTConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] (or more generally [d_1, ..., d_n, sequence_length] + were d_1 ... d_n are arbitrary dimensions) with the word BPE token indices selected in the range [0, total_tokens_embeddings[ + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + + Outputs: + `hidden_states`: the encoded-hidden-states at the top of the model + as a torch.FloatTensor of size [batch_size, sequence_length, hidden_size] + (or more generally [d_1, ..., d_n, hidden_size] were d_1 ... d_n are the dimension of input_ids) + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + + config = modeling_openai.OpenAIGPTConfig() + + model = modeling_openai.OpenAIGPTModel(config) + hidden_states = model(input_ids) + ``` + """ + + def __init__(self, config): + super(OpenAIGPTModel, self).__init__(config) + num_tokens = config.vocab_size + config.n_special + self.tokens_embed = nn.Embedding(num_tokens, config.n_embd) + self.positions_embed = nn.Embedding(config.n_positions, config.n_embd) + self.drop = nn.Dropout(config.embd_pdrop) + block = Block(config.n_ctx, config, scale=True) + self.h = nn.ModuleList([copy.deepcopy(block) for _ in range(config.n_layer)]) + + self.apply(self.init_weights) + # nn.init.normal_(self.embed.weight, std=0.02) + + def set_num_special_tokens(self, num_special_tokens): + " Update input embeddings with new embedding matrice if needed " + if self.config.n_special == num_special_tokens: + return + # Update config + self.config.n_special = num_special_tokens + # Build new embeddings and initialize all new embeddings (in particular the special tokens) + old_embed = self.tokens_embed + self.tokens_embed = nn.Embedding(self.config.total_tokens_embeddings, self.config.n_embd) + self.tokens_embed.to(old_embed.weight.device) + self.init_weights(self.tokens_embed) + # Copy word embeddings from the previous weights + self.tokens_embed.weight.data[:self.config.vocab_size, :] = old_embed.weight.data[:self.config.vocab_size, :] + + def forward(self, input_ids, position_ids=None, token_type_ids=None): + if position_ids is None: + # This was used when we had a single embedding matrice from position and token embeddings + # start = self.config.vocab_size + self.config.n_special + # end = start + input_ids.size(-1) + # position_ids = torch.arange(start, end, dtype=torch.long, device=input_ids.device) + position_ids = torch.arange(input_ids.size(-1), dtype=torch.long, device=input_ids.device) + position_ids = position_ids.unsqueeze(0).expand_as(input_ids) + + input_shape = input_ids.size() + input_ids = input_ids.view(-1, input_ids.size(-1)) + position_ids = position_ids.view(-1, position_ids.size(-1)) + + inputs_embeds = self.tokens_embed(input_ids) + position_embeds = self.positions_embed(position_ids) + if token_type_ids is not None: + token_type_ids = token_type_ids.view(-1, token_type_ids.size(-1)) + token_type_embeds = self.tokens_embed(token_type_ids) + else: + token_type_embeds = 0 + # Add the position information to the input embeddings + # h = e.sum(dim=2) + hidden_states = inputs_embeds + position_embeds + token_type_embeds + for block in self.h: + hidden_states = block(hidden_states) + output_shape = input_shape + (hidden_states.size(-1),) + return hidden_states.view(*output_shape) + + +class OpenAIGPTLMHeadModel(OpenAIGPTPreTrainedModel): + """OpenAI GPT model with a Language Modeling head ("Improving Language Understanding by Generative Pre-Training"). + + OpenAI GPT use a single embedding matrix to store the word and special embeddings. + Special tokens embeddings are additional tokens that are not pre-trained: [SEP], [CLS]... + Special tokens need to be trained during the fine-tuning if you use them. + The number of special embeddings can be controled using the `set_num_special_tokens(num_special_tokens)` function. + + The embeddings are ordered as follow in the token embeddings matrice: + [0, ---------------------- + ... -> word embeddings + config.vocab_size - 1, ______________________ + config.vocab_size, + ... -> special embeddings + config.vocab_size + config.n_special - 1] ______________________ + + where total_tokens_embeddings can be obtained as config.total_tokens_embeddings and is: + total_tokens_embeddings = config.vocab_size + config.n_special + You should use the associate indices to index the embeddings. + + Params: + config: a OpenAIGPTConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] (or more generally [d_1, ..., d_n, sequence_length] + were d_1 ... d_n are arbitrary dimensions) with the word BPE token indices selected in the range [0, total_tokens_embeddings[ + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + `lm_labels`: optional language modeling labels: torch.LongTensor of shape [batch_size, sequence_length] + with indices selected in [-1, 0, ..., vocab_size]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., vocab_size] + + Outputs: + if `lm_labels` is not `None`: + Outputs the language modeling loss. + else: + `lm_logits`: the language modeling logits as a torch.FloatTensor of size [batch_size, sequence_length, total_tokens_embeddings] + (or more generally [d_1, ..., d_n, total_tokens_embeddings] were d_1 ... d_n are the dimension of input_ids) + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + + config = modeling_openai.OpenAIGPTConfig() + + model = modeling_openai.OpenAIGPTLMHeadModel(config) + lm_logits = model(input_ids) + ``` + """ + + def __init__(self, config): + super(OpenAIGPTLMHeadModel, self).__init__(config) + self.transformer = OpenAIGPTModel(config) + self.lm_head = OpenAIGPTLMHead(self.transformer.tokens_embed.weight, config) + self.apply(self.init_weights) + + def set_num_special_tokens(self, num_special_tokens): + """ Update input and output embeddings with new embedding matrice + Make sure we are sharing the embeddings + """ + self.transformer.set_num_special_tokens(num_special_tokens) + self.lm_head.set_embeddings_weights(self.transformer.tokens_embed.weight) + + def forward(self, input_ids, position_ids=None, token_type_ids=None, lm_labels=None): + hidden_states = self.transformer(input_ids, position_ids, token_type_ids) + lm_logits = self.lm_head(hidden_states) + if lm_labels is not None: + # Shift so that tokens < n predict n + shift_logits = lm_logits[..., :-1, :].contiguous() + shift_labels = lm_labels[..., 1:].contiguous() + # Flatten the tokens + loss_fct = CrossEntropyLoss(ignore_index=-1) + loss = loss_fct(shift_logits.view(-1, shift_logits.size(-1)), + shift_labels.view(-1)) + return loss + return lm_logits + + +class OpenAIGPTDoubleHeadsModel(OpenAIGPTPreTrainedModel): + """OpenAI GPT model with a Language Modeling and a Multiple Choice head ("Improving Language Understanding by Generative Pre-Training"). + + OpenAI GPT use a single embedding matrix to store the word and special embeddings. + Special tokens embeddings are additional tokens that are not pre-trained: [SEP], [CLS]... + Special tokens need to be trained during the fine-tuning if you use them. + The number of special embeddings can be controled using the `set_num_special_tokens(num_special_tokens)` function. + + The embeddings are ordered as follow in the token embeddings matrice: + [0, ---------------------- + ... -> word embeddings + config.vocab_size - 1, ______________________ + config.vocab_size, + ... -> special embeddings + config.vocab_size + config.n_special - 1] ______________________ + + where total_tokens_embeddings can be obtained as config.total_tokens_embeddings and is: + total_tokens_embeddings = config.vocab_size + config.n_special + You should use the associate indices to index the embeddings. + + Params: + config: a OpenAIGPTConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, num_choices, sequence_length] with the BPE token + indices selected in the range [0, total_tokens_embeddings[ + `mc_token_ids`: a torch.LongTensor of shape [batch_size, num_choices] with the index of the token from + which we should take the hidden state to feed the multiple choice classifier (usually last token of the sequence) + `position_ids`: an optional torch.LongTensor with the same shape as input_ids + with the position indices (selected in the range [0, config.n_positions - 1[. + `token_type_ids`: an optional torch.LongTensor with the same shape as input_ids + You can use it to add a third type of embedding to each input token in the sequence + (the previous two being the word and position embeddings). + The input, position and token_type embeddings are summed inside the Transformer before the first + self-attention block. + `lm_labels`: optional language modeling labels: torch.LongTensor of shape [batch_size, num_choices, sequence_length] + with indices selected in [-1, 0, ..., total_tokens_embeddings]. All labels set to -1 are ignored (masked), the loss + is only computed for the labels set in [0, ..., total_tokens_embeddings] + `multiple_choice_labels`: optional multiple choice labels: torch.LongTensor of shape [batch_size] + with indices selected in [0, ..., num_choices]. + + Outputs: + if `lm_labels` and `multiple_choice_labels` are not `None`: + Outputs a tuple of losses with the language modeling loss and the multiple choice loss. + else: a tuple with + `lm_logits`: the language modeling logits as a torch.FloatTensor of size [batch_size, num_choices, sequence_length, total_tokens_embeddings] + `multiple_choice_logits`: the multiple choice logits as a torch.FloatTensor of size [batch_size, num_choices] + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[[31, 51, 99], [15, 5, 0]]]) # (bsz, number of choice, seq length) + mc_token_ids = torch.LongTensor([[2], [1]]) # (bsz, number of choice) + + config = modeling_openai.OpenAIGPTConfig() + + model = modeling_openai.OpenAIGPTLMHeadModel(config) + lm_logits, multiple_choice_logits = model(input_ids, mc_token_ids) + ``` + """ + + def __init__(self, config): + super(OpenAIGPTDoubleHeadsModel, self).__init__(config) + self.transformer = OpenAIGPTModel(config) + self.lm_head = OpenAIGPTLMHead(self.transformer.tokens_embed.weight, config) + self.multiple_choice_head = OpenAIGPTMultipleChoiceHead(config) + self.apply(self.init_weights) + + def set_num_special_tokens(self, num_special_tokens): + """ Update input and output embeddings with new embedding matrice + Make sure we are sharing the embeddings + """ + self.transformer.set_num_special_tokens(num_special_tokens) + self.lm_head.set_embeddings_weights(self.transformer.tokens_embed.weight) + + def forward(self, input_ids, mc_token_ids, lm_labels=None, mc_labels=None, token_type_ids=None, position_ids=None): + hidden_states = self.transformer(input_ids, position_ids, token_type_ids) + lm_logits = self.lm_head(hidden_states) + mc_logits = self.multiple_choice_head(hidden_states, mc_token_ids) + losses = [] + if lm_labels is not None: + shift_logits = lm_logits[..., :-1, :].contiguous() + shift_labels = lm_labels[..., 1:].contiguous() + loss_fct = CrossEntropyLoss(ignore_index=-1) + losses.append(loss_fct(shift_logits.view(-1, shift_logits.size(-1)), shift_labels.view(-1))) + if mc_labels is not None: + loss_fct = CrossEntropyLoss() + losses.append(loss_fct(mc_logits.view(-1, mc_logits.size(-1)), mc_labels.view(-1))) + if losses: + return losses + return lm_logits, mc_logits diff --git a/pytorch_pretrained/modeling_transfo_xl.py b/pytorch_pretrained/modeling_transfo_xl.py new file mode 100644 index 0000000000000000000000000000000000000000..e8fffc5b60894b5a41f757a7c3a3ced3f21be162 --- /dev/null +++ b/pytorch_pretrained/modeling_transfo_xl.py @@ -0,0 +1,1387 @@ +# coding=utf-8 +# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" PyTorch Transformer XL model. + Adapted from https://github.com/kimiyoung/transformer-xl. + In particular https://github.com/kimiyoung/transformer-xl/blob/master/pytorch/mem_transformer.py +""" + +from __future__ import absolute_import, division, print_function, unicode_literals + +import os +import copy +import json +import math +import logging +import tarfile +import tempfile +import shutil +import collections +import sys +from io import open + +import torch +import torch.nn as nn +import torch.nn.functional as F +from torch.nn import CrossEntropyLoss +from torch.nn.parameter import Parameter + +from .modeling import BertLayerNorm as LayerNorm +from .modeling_transfo_xl_utilities import ProjectedAdaptiveLogSoftmax, sample_logits +from .file_utils import cached_path, CONFIG_NAME, WEIGHTS_NAME + +logger = logging.getLogger(__name__) + +PRETRAINED_MODEL_ARCHIVE_MAP = { + 'transfo-xl-wt103': "https://s3.amazonaws.com/models.huggingface.co/bert/transfo-xl-wt103-pytorch_model.bin", +} +PRETRAINED_CONFIG_ARCHIVE_MAP = { + 'transfo-xl-wt103': "https://s3.amazonaws.com/models.huggingface.co/bert/transfo-xl-wt103-config.json", +} + +TF_WEIGHTS_NAME = 'model.ckpt' + +def build_tf_to_pytorch_map(model, config): + """ A map of modules from TF to PyTorch. + This time I use a map to keep the PyTorch model as identical to the original PyTorch model as possible. + """ + tf_to_pt_map = {} + + if hasattr(model, 'transformer'): + # We are loading in a TransfoXLLMHeadModel => we will load also the Adaptive Softmax + tf_to_pt_map.update({ + "transformer/adaptive_softmax/cutoff_0/cluster_W": model.crit.cluster_weight, + "transformer/adaptive_softmax/cutoff_0/cluster_b": model.crit.cluster_bias}) + for i, (out_l, proj_l, tie_proj) in enumerate(zip( + model.crit.out_layers, + model.crit.out_projs, + config.tie_projs)): + layer_str = "transformer/adaptive_softmax/cutoff_%d/" % i + if config.tie_weight: + tf_to_pt_map.update({ + layer_str + 'b': out_l.bias}) + else: + raise NotImplementedError + # I don't think this is implemented in the TF code + tf_to_pt_map.update({ + layer_str + 'lookup_table': out_l.weight, + layer_str + 'b': out_l.bias}) + if not tie_proj: + tf_to_pt_map.update({ + layer_str + 'proj': proj_l + }) + # Now load the rest of the transformer + model = model.transformer + + # Embeddings + for i, (embed_l, proj_l) in enumerate(zip(model.word_emb.emb_layers, model.word_emb.emb_projs)): + layer_str = "transformer/adaptive_embed/cutoff_%d/" % i + tf_to_pt_map.update({ + layer_str + 'lookup_table': embed_l.weight, + layer_str + 'proj_W': proj_l + }) + + # Transformer blocks + for i, b in enumerate(model.layers): + layer_str = "transformer/layer_%d/" % i + tf_to_pt_map.update({ + layer_str + "rel_attn/LayerNorm/gamma": b.dec_attn.layer_norm.weight, + layer_str + "rel_attn/LayerNorm/beta": b.dec_attn.layer_norm.bias, + layer_str + "rel_attn/o/kernel": b.dec_attn.o_net.weight, + layer_str + "rel_attn/qkv/kernel": b.dec_attn.qkv_net.weight, + layer_str + "rel_attn/r/kernel": b.dec_attn.r_net.weight, + layer_str + "ff/LayerNorm/gamma": b.pos_ff.layer_norm.weight, + layer_str + "ff/LayerNorm/beta": b.pos_ff.layer_norm.bias, + layer_str + "ff/layer_1/kernel": b.pos_ff.CoreNet[0].weight, + layer_str + "ff/layer_1/bias": b.pos_ff.CoreNet[0].bias, + layer_str + "ff/layer_2/kernel": b.pos_ff.CoreNet[3].weight, + layer_str + "ff/layer_2/bias": b.pos_ff.CoreNet[3].bias, + }) + + # Relative positioning biases + if config.untie_r: + r_r_list = [] + r_w_list = [] + for b in model.layers: + r_r_list.append(b.dec_attn.r_r_bias) + r_w_list.append(b.dec_attn.r_w_bias) + else: + r_r_list = [model.r_r_bias] + r_w_list = [model.r_w_bias] + tf_to_pt_map.update({ + 'transformer/r_r_bias': r_r_list, + 'transformer/r_w_bias': r_w_list}) + return tf_to_pt_map + +def load_tf_weights_in_transfo_xl(model, config, tf_path): + """ Load tf checkpoints in a pytorch model + """ + try: + import numpy as np + import tensorflow as tf + except ImportError: + print("Loading a TensorFlow models in PyTorch, requires TensorFlow to be installed. Please see " + "https://www.tensorflow.org/install/ for installation instructions.") + raise + # Build TF to PyTorch weights loading map + tf_to_pt_map = build_tf_to_pytorch_map(model, config) + + # Load weights from TF model + init_vars = tf.train.list_variables(tf_path) + tf_weights = {} + for name, shape in init_vars: + print("Loading TF weight {} with shape {}".format(name, shape)) + array = tf.train.load_variable(tf_path, name) + tf_weights[name] = array + + for name, pointer in tf_to_pt_map.items(): + assert name in tf_weights + array = tf_weights[name] + # adam_v and adam_m are variables used in AdamWeightDecayOptimizer to calculated m and v + # which are not required for using pretrained model + if 'kernel' in name or 'proj' in name: + array = np.transpose(array) + if ('r_r_bias' in name or 'r_w_bias' in name) and len(pointer) > 1: + # Here we will split the TF weigths + assert len(pointer) == array.shape[0] + for i, p_i in enumerate(pointer): + arr_i = array[i, ...] + try: + assert p_i.shape == arr_i.shape + except AssertionError as e: + e.args += (p_i.shape, arr_i.shape) + raise + print("Initialize PyTorch weight {} for layer {}".format(name, i)) + p_i.data = torch.from_numpy(arr_i) + else: + try: + assert pointer.shape == array.shape + except AssertionError as e: + e.args += (pointer.shape, array.shape) + raise + print("Initialize PyTorch weight {}".format(name)) + pointer.data = torch.from_numpy(array) + tf_weights.pop(name, None) + tf_weights.pop(name + '/Adam', None) + tf_weights.pop(name + '/Adam_1', None) + + print("Weights not copied to PyTorch model: {}".format(', '.join(tf_weights.keys()))) + return model + + +class TransfoXLConfig(object): + """Configuration class to store the configuration of a `TransfoXLModel`. + """ + def __init__(self, + vocab_size_or_config_json_file=267735, + cutoffs=[20000, 40000, 200000], + d_model=1024, + d_embed=1024, + n_head=16, + d_head=64, + d_inner=4096, + div_val=4, + pre_lnorm=False, + n_layer=18, + tgt_len=128, + ext_len=0, + mem_len=1600, + clamp_len=1000, + same_length=True, + proj_share_all_but_first=True, + attn_type=0, + sample_softmax=-1, + adaptive=True, + tie_weight=True, + dropout=0.1, + dropatt=0.0, + untie_r=True, + init="normal", + init_range=0.01, + proj_init_std=0.01, + init_std=0.02): + """Constructs TransfoXLConfig. + + Args: + vocab_size_or_config_json_file: Vocabulary size of `inputs_ids` in `TransfoXLModel` or a configuration json file. + cutoffs: cutoffs for the adaptive softmax + d_model: Dimensionality of the model's hidden states. + d_embed: Dimensionality of the embeddings + d_head: Dimensionality of the model's heads. + div_val: divident value for adapative input and softmax + pre_lnorm: apply LayerNorm to the input instead of the output + d_inner: Inner dimension in FF + n_layer: Number of hidden layers in the Transformer encoder. + n_head: Number of attention heads for each attention layer in + the Transformer encoder. + tgt_len: number of tokens to predict + ext_len: length of the extended context + mem_len: length of the retained previous heads + same_length: use the same attn length for all tokens + proj_share_all_but_first: True to share all but first projs, False not to share. + attn_type: attention type. 0 for Transformer-XL, 1 for Shaw et al, 2 for Vaswani et al, 3 for Al Rfou et al. + clamp_len: use the same pos embeddings after clamp_len + sample_softmax: number of samples in sampled softmax + adaptive: use adaptive softmax + tie_weight: tie the word embedding and softmax weights + dropout: The dropout probabilitiy for all fully connected + layers in the embeddings, encoder, and pooler. + dropatt: The dropout ratio for the attention probabilities. + untie_r: untie relative position biases + embd_pdrop: The dropout ratio for the embeddings. + init: parameter initializer to use + init_range: parameters initialized by U(-init_range, init_range). + proj_init_std: parameters initialized by N(0, init_std) + init_std: parameters initialized by N(0, init_std) + """ + if isinstance(vocab_size_or_config_json_file, str) or (sys.version_info[0] == 2 + and isinstance(vocab_size_or_config_json_file, unicode)): + with open(vocab_size_or_config_json_file, "r", encoding='utf-8') as reader: + json_config = json.loads(reader.read()) + for key, value in json_config.items(): + self.__dict__[key] = value + elif isinstance(vocab_size_or_config_json_file, int): + self.n_token = vocab_size_or_config_json_file + self.cutoffs = [] + self.cutoffs.extend(cutoffs) + self.tie_weight = tie_weight + if proj_share_all_but_first: + self.tie_projs = [False] + [True] * len(self.cutoffs) + else: + self.tie_projs = [False] + [False] * len(self.cutoffs) + self.d_model = d_model + self.d_embed = d_embed + self.d_head = d_head + self.d_inner = d_inner + self.div_val = div_val + self.pre_lnorm = pre_lnorm + self.n_layer = n_layer + self.n_head = n_head + self.tgt_len = tgt_len + self.ext_len = ext_len + self.mem_len = mem_len + self.same_length = same_length + self.attn_type = attn_type + self.clamp_len = clamp_len + self.sample_softmax = sample_softmax + self.adaptive = adaptive + self.dropout = dropout + self.dropatt = dropatt + self.untie_r = untie_r + self.init = init + self.init_range = init_range + self.proj_init_std = proj_init_std + self.init_std = init_std + else: + raise ValueError("First argument must be either a vocabulary size (int)" + "or the path to a pretrained model config file (str)") + + @classmethod + def from_dict(cls, json_object): + """Constructs a `TransfoXLConfig` from a Python dictionary of parameters.""" + config = TransfoXLConfig(vocab_size_or_config_json_file=-1) + for key, value in json_object.items(): + config.__dict__[key] = value + return config + + @classmethod + def from_json_file(cls, json_file): + """Constructs a `TransfoXLConfig` from a json file of parameters.""" + with open(json_file, "r", encoding='utf-8') as reader: + text = reader.read() + return cls.from_dict(json.loads(text)) + + def __repr__(self): + return str(self.to_json_string()) + + def to_dict(self): + """Serializes this instance to a Python dictionary.""" + output = copy.deepcopy(self.__dict__) + return output + + def to_json_string(self): + """Serializes this instance to a JSON string.""" + return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n" + + def to_json_file(self, json_file_path): + """ Save this instance to a json file.""" + with open(json_file_path, "w", encoding='utf-8') as writer: + writer.write(self.to_json_string()) + + +class PositionalEmbedding(nn.Module): + def __init__(self, demb): + super(PositionalEmbedding, self).__init__() + + self.demb = demb + + inv_freq = 1 / (10000 ** (torch.arange(0.0, demb, 2.0) / demb)) + self.register_buffer('inv_freq', inv_freq) + + def forward(self, pos_seq, bsz=None): + sinusoid_inp = torch.ger(pos_seq, self.inv_freq) + pos_emb = torch.cat([sinusoid_inp.sin(), sinusoid_inp.cos()], dim=-1) + + if bsz is not None: + return pos_emb[:,None,:].expand(-1, bsz, -1) + else: + return pos_emb[:,None,:] + + +class PositionwiseFF(nn.Module): + def __init__(self, d_model, d_inner, dropout, pre_lnorm=False): + super(PositionwiseFF, self).__init__() + + self.d_model = d_model + self.d_inner = d_inner + self.dropout = dropout + + self.CoreNet = nn.Sequential( + nn.Linear(d_model, d_inner), nn.ReLU(inplace=True), + nn.Dropout(dropout), + nn.Linear(d_inner, d_model), + nn.Dropout(dropout), + ) + + self.layer_norm = LayerNorm(d_model) + + self.pre_lnorm = pre_lnorm + + def forward(self, inp): + if self.pre_lnorm: + ##### layer normalization + positionwise feed-forward + core_out = self.CoreNet(self.layer_norm(inp)) + + ##### residual connection + output = core_out + inp + else: + ##### positionwise feed-forward + core_out = self.CoreNet(inp) + + ##### residual connection + layer normalization + output = self.layer_norm(inp + core_out) + + return output + +class MultiHeadAttn(nn.Module): + def __init__(self, n_head, d_model, d_head, dropout, dropatt=0, + pre_lnorm=False, r_r_bias=None, r_w_bias=None): + super(MultiHeadAttn, self).__init__() + + self.n_head = n_head + self.d_model = d_model + self.d_head = d_head + self.dropout = dropout + + self.q_net = nn.Linear(d_model, n_head * d_head, bias=False) + self.kv_net = nn.Linear(d_model, 2 * n_head * d_head, bias=False) + + self.drop = nn.Dropout(dropout) + self.dropatt = nn.Dropout(dropatt) + self.o_net = nn.Linear(n_head * d_head, d_model, bias=False) + + self.layer_norm = LayerNorm(d_model) + + self.scale = 1 / (d_head ** 0.5) + + self.pre_lnorm = pre_lnorm + + if r_r_bias is None or r_w_bias is None: # Biases are not shared + self.r_r_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + self.r_w_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + else: + self.r_r_bias = r_r_bias + self.r_w_bias = r_w_bias + + def forward(self, h, attn_mask=None, mems=None): + ##### multihead attention + # [hlen x bsz x n_head x d_head] + + if mems is not None: + c = torch.cat([mems, h], 0) + else: + c = h + + if self.pre_lnorm: + ##### layer normalization + c = self.layer_norm(c) + + head_q = self.q_net(h) + head_k, head_v = torch.chunk(self.kv_net(c), 2, -1) + + head_q = head_q.view(h.size(0), h.size(1), self.n_head, self.d_head) + head_k = head_k.view(c.size(0), c.size(1), self.n_head, self.d_head) + head_v = head_v.view(c.size(0), c.size(1), self.n_head, self.d_head) + + # [qlen x klen x bsz x n_head] + attn_score = torch.einsum('ibnd,jbnd->ijbn', (head_q, head_k)) + attn_score.mul_(self.scale) + if attn_mask is not None and attn_mask.any().item(): + if attn_mask.dim() == 2: + attn_score.masked_fill_(attn_mask[None,:,:,None], -float('inf')) + elif attn_mask.dim() == 3: + attn_score.masked_fill_(attn_mask[:,:,:,None], -float('inf')) + + # [qlen x klen x bsz x n_head] + attn_prob = F.softmax(attn_score, dim=1) + attn_prob = self.dropatt(attn_prob) + + # [qlen x klen x bsz x n_head] + [klen x bsz x n_head x d_head] -> [qlen x bsz x n_head x d_head] + attn_vec = torch.einsum('ijbn,jbnd->ibnd', (attn_prob, head_v)) + attn_vec = attn_vec.contiguous().view( + attn_vec.size(0), attn_vec.size(1), self.n_head * self.d_head) + + ##### linear projection + attn_out = self.o_net(attn_vec) + attn_out = self.drop(attn_out) + + if self.pre_lnorm: + ##### residual connection + output = h + attn_out + else: + ##### residual connection + layer normalization + output = self.layer_norm(h + attn_out) + + return output + +class RelMultiHeadAttn(nn.Module): + def __init__(self, n_head, d_model, d_head, dropout, dropatt=0, + tgt_len=None, ext_len=None, mem_len=None, pre_lnorm=False, + r_r_bias=None, r_w_bias=None): + super(RelMultiHeadAttn, self).__init__() + + self.n_head = n_head + self.d_model = d_model + self.d_head = d_head + self.dropout = dropout + + self.qkv_net = nn.Linear(d_model, 3 * n_head * d_head, bias=False) + + self.drop = nn.Dropout(dropout) + self.dropatt = nn.Dropout(dropatt) + self.o_net = nn.Linear(n_head * d_head, d_model, bias=False) + + self.layer_norm = LayerNorm(d_model) + + self.scale = 1 / (d_head ** 0.5) + + self.pre_lnorm = pre_lnorm + + if r_r_bias is None or r_w_bias is None: # Biases are not shared + self.r_r_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + self.r_w_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + else: + self.r_r_bias = r_r_bias + self.r_w_bias = r_w_bias + + def _parallelogram_mask(self, h, w, left=False): + mask = torch.ones((h, w)).byte() + m = min(h, w) + mask[:m,:m] = torch.triu(mask[:m,:m]) + mask[-m:,-m:] = torch.tril(mask[-m:,-m:]) + + if left: + return mask + else: + return mask.flip(0) + + def _shift(self, x, qlen, klen, mask, left=False): + if qlen > 1: + zero_pad = torch.zeros((x.size(0), qlen-1, x.size(2), x.size(3)), + device=x.device, dtype=x.dtype) + else: + zero_pad = torch.zeros(0, device=x.device, dtype=x.dtype) + + if left: + mask = mask.flip(1) + x_padded = torch.cat([zero_pad, x], dim=1).expand(qlen, -1, -1, -1) + else: + x_padded = torch.cat([x, zero_pad], dim=1).expand(qlen, -1, -1, -1) + + x = x_padded.masked_select(mask[:,:,None,None]) \ + .view(qlen, klen, x.size(2), x.size(3)) + + return x + + def _rel_shift(self, x, zero_triu=False): + zero_pad_shape = (x.size(0), 1) + x.size()[2:] + zero_pad = torch.zeros(zero_pad_shape, device=x.device, dtype=x.dtype) + x_padded = torch.cat([zero_pad, x], dim=1) + + x_padded_shape = (x.size(1) + 1, x.size(0)) + x.size()[2:] + x_padded = x_padded.view(*x_padded_shape) + + x = x_padded[1:].view_as(x) + + if zero_triu: + ones = torch.ones((x.size(0), x.size(1))) + x = x * torch.tril(ones, x.size(1) - x.size(0))[:,:,None,None] + + return x + + def forward(self, w, r, attn_mask=None, mems=None): + raise NotImplementedError + +class RelPartialLearnableMultiHeadAttn(RelMultiHeadAttn): + def __init__(self, *args, **kwargs): + super(RelPartialLearnableMultiHeadAttn, self).__init__(*args, **kwargs) + + self.r_net = nn.Linear(self.d_model, self.n_head * self.d_head, bias=False) + + def forward(self, w, r, attn_mask=None, mems=None): + qlen, rlen, bsz = w.size(0), r.size(0), w.size(1) + + if mems is not None: + cat = torch.cat([mems, w], 0) + if self.pre_lnorm: + w_heads = self.qkv_net(self.layer_norm(cat)) + else: + w_heads = self.qkv_net(cat) + r_head_k = self.r_net(r) + + w_head_q, w_head_k, w_head_v = torch.chunk(w_heads, 3, dim=-1) + w_head_q = w_head_q[-qlen:] + else: + if self.pre_lnorm: + w_heads = self.qkv_net(self.layer_norm(w)) + else: + w_heads = self.qkv_net(w) + r_head_k = self.r_net(r) + + w_head_q, w_head_k, w_head_v = torch.chunk(w_heads, 3, dim=-1) + + klen = w_head_k.size(0) + + w_head_q = w_head_q.view(qlen, bsz, self.n_head, self.d_head) # qlen x bsz x n_head x d_head + w_head_k = w_head_k.view(klen, bsz, self.n_head, self.d_head) # qlen x bsz x n_head x d_head + w_head_v = w_head_v.view(klen, bsz, self.n_head, self.d_head) # qlen x bsz x n_head x d_head + + r_head_k = r_head_k.view(rlen, self.n_head, self.d_head) # qlen x n_head x d_head + + #### compute attention score + rw_head_q = w_head_q + self.r_w_bias # qlen x bsz x n_head x d_head + AC = torch.einsum('ibnd,jbnd->ijbn', (rw_head_q, w_head_k)) # qlen x klen x bsz x n_head + + rr_head_q = w_head_q + self.r_r_bias + BD = torch.einsum('ibnd,jnd->ijbn', (rr_head_q, r_head_k)) # qlen x klen x bsz x n_head + BD = self._rel_shift(BD) + + # [qlen x klen x bsz x n_head] + attn_score = AC + BD + attn_score.mul_(self.scale) + + #### compute attention probability + if attn_mask is not None and attn_mask.any().item(): + if attn_mask.dim() == 2: + attn_score = attn_score.float().masked_fill( + attn_mask[None,:,:,None], -1e30).type_as(attn_score) + elif attn_mask.dim() == 3: + attn_score = attn_score.float().masked_fill( + attn_mask[:,:,:,None], -1e30).type_as(attn_score) + + # [qlen x klen x bsz x n_head] + attn_prob = F.softmax(attn_score, dim=1) + attn_prob = self.dropatt(attn_prob) + + #### compute attention vector + attn_vec = torch.einsum('ijbn,jbnd->ibnd', (attn_prob, w_head_v)) + + # [qlen x bsz x n_head x d_head] + attn_vec = attn_vec.contiguous().view( + attn_vec.size(0), attn_vec.size(1), self.n_head * self.d_head) + + ##### linear projection + attn_out = self.o_net(attn_vec) + attn_out = self.drop(attn_out) + + if self.pre_lnorm: + ##### residual connection + output = w + attn_out + else: + ##### residual connection + layer normalization + output = self.layer_norm(w + attn_out) + + return output + +class RelLearnableMultiHeadAttn(RelMultiHeadAttn): + def __init__(self, *args, **kwargs): + super(RelLearnableMultiHeadAttn, self).__init__(*args, **kwargs) + + def forward(self, w, r_emb, r_w_bias, r_bias, attn_mask=None, mems=None): + # r_emb: [klen, n_head, d_head], used for term B + # r_w_bias: [n_head, d_head], used for term C + # r_bias: [klen, n_head], used for term D + + qlen, bsz = w.size(0), w.size(1) + + if mems is not None: + cat = torch.cat([mems, w], 0) + if self.pre_lnorm: + w_heads = self.qkv_net(self.layer_norm(cat)) + else: + w_heads = self.qkv_net(cat) + w_head_q, w_head_k, w_head_v = torch.chunk(w_heads, 3, dim=-1) + + w_head_q = w_head_q[-qlen:] + else: + if self.pre_lnorm: + w_heads = self.qkv_net(self.layer_norm(w)) + else: + w_heads = self.qkv_net(w) + w_head_q, w_head_k, w_head_v = torch.chunk(w_heads, 3, dim=-1) + + klen = w_head_k.size(0) + + w_head_q = w_head_q.view(qlen, bsz, self.n_head, self.d_head) + w_head_k = w_head_k.view(klen, bsz, self.n_head, self.d_head) + w_head_v = w_head_v.view(klen, bsz, self.n_head, self.d_head) + + if klen > r_emb.size(0): + r_emb_pad = r_emb[0:1].expand(klen-r_emb.size(0), -1, -1) + r_emb = torch.cat([r_emb_pad, r_emb], 0) + r_bias_pad = r_bias[0:1].expand(klen-r_bias.size(0), -1) + r_bias = torch.cat([r_bias_pad, r_bias], 0) + else: + r_emb = r_emb[-klen:] + r_bias = r_bias[-klen:] + + #### compute attention score + rw_head_q = w_head_q + r_w_bias[None] # qlen x bsz x n_head x d_head + + AC = torch.einsum('ibnd,jbnd->ijbn', (rw_head_q, w_head_k)) # qlen x klen x bsz x n_head + B_ = torch.einsum('ibnd,jnd->ijbn', (w_head_q, r_emb)) # qlen x klen x bsz x n_head + D_ = r_bias[None, :, None] # 1 x klen x 1 x n_head + BD = self._rel_shift(B_ + D_) + + # [qlen x klen x bsz x n_head] + attn_score = AC + BD + attn_score.mul_(self.scale) + + #### compute attention probability + if attn_mask is not None and attn_mask.any().item(): + if attn_mask.dim() == 2: + attn_score.masked_fill_(attn_mask[None,:,:,None], -float('inf')) + elif attn_mask.dim() == 3: + attn_score.masked_fill_(attn_mask[:,:,:,None], -float('inf')) + + # [qlen x klen x bsz x n_head] + attn_prob = F.softmax(attn_score, dim=1) + attn_prob = self.dropatt(attn_prob) + + #### compute attention vector + attn_vec = torch.einsum('ijbn,jbnd->ibnd', (attn_prob, w_head_v)) + + # [qlen x bsz x n_head x d_head] + attn_vec = attn_vec.contiguous().view( + attn_vec.size(0), attn_vec.size(1), self.n_head * self.d_head) + + ##### linear projection + attn_out = self.o_net(attn_vec) + attn_out = self.drop(attn_out) + + if self.pre_lnorm: + ##### residual connection + output = w + attn_out + else: + ##### residual connection + layer normalization + output = self.layer_norm(w + attn_out) + + return output + +class DecoderLayer(nn.Module): + def __init__(self, n_head, d_model, d_head, d_inner, dropout, **kwargs): + super(DecoderLayer, self).__init__() + + self.dec_attn = MultiHeadAttn(n_head, d_model, d_head, dropout, **kwargs) + self.pos_ff = PositionwiseFF(d_model, d_inner, dropout, + pre_lnorm=kwargs.get('pre_lnorm')) + + def forward(self, dec_inp, dec_attn_mask=None, mems=None): + + output = self.dec_attn(dec_inp, attn_mask=dec_attn_mask, + mems=mems) + output = self.pos_ff(output) + + return output + +class RelLearnableDecoderLayer(nn.Module): + def __init__(self, n_head, d_model, d_head, d_inner, dropout, + **kwargs): + super(RelLearnableDecoderLayer, self).__init__() + + self.dec_attn = RelLearnableMultiHeadAttn(n_head, d_model, d_head, dropout, + **kwargs) + self.pos_ff = PositionwiseFF(d_model, d_inner, dropout, + pre_lnorm=kwargs.get('pre_lnorm')) + + def forward(self, dec_inp, r_emb, r_w_bias, r_bias, dec_attn_mask=None, mems=None): + + output = self.dec_attn(dec_inp, r_emb, r_w_bias, r_bias, + attn_mask=dec_attn_mask, + mems=mems) + output = self.pos_ff(output) + + return output + +class RelPartialLearnableDecoderLayer(nn.Module): + def __init__(self, n_head, d_model, d_head, d_inner, dropout, + **kwargs): + super(RelPartialLearnableDecoderLayer, self).__init__() + + self.dec_attn = RelPartialLearnableMultiHeadAttn(n_head, d_model, + d_head, dropout, **kwargs) + self.pos_ff = PositionwiseFF(d_model, d_inner, dropout, + pre_lnorm=kwargs.get('pre_lnorm')) + + def forward(self, dec_inp, r, dec_attn_mask=None, mems=None): + + output = self.dec_attn(dec_inp, r, + attn_mask=dec_attn_mask, + mems=mems) + output = self.pos_ff(output) + + return output + + +class AdaptiveEmbedding(nn.Module): + def __init__(self, n_token, d_embed, d_proj, cutoffs, div_val=1, + sample_softmax=False): + super(AdaptiveEmbedding, self).__init__() + + self.n_token = n_token + self.d_embed = d_embed + + self.cutoffs = cutoffs + [n_token] + self.div_val = div_val + self.d_proj = d_proj + + self.emb_scale = d_proj ** 0.5 + + self.cutoff_ends = [0] + self.cutoffs + + self.emb_layers = nn.ModuleList() + self.emb_projs = nn.ParameterList() + if div_val == 1: + self.emb_layers.append( + nn.Embedding(n_token, d_embed, sparse=sample_softmax>0) + ) + if d_proj != d_embed: + self.emb_projs.append(nn.Parameter(torch.Tensor(d_proj, d_embed))) + else: + for i in range(len(self.cutoffs)): + l_idx, r_idx = self.cutoff_ends[i], self.cutoff_ends[i+1] + d_emb_i = d_embed // (div_val ** i) + self.emb_layers.append(nn.Embedding(r_idx-l_idx, d_emb_i)) + self.emb_projs.append(nn.Parameter(torch.Tensor(d_proj, d_emb_i))) + + def forward(self, inp): + if self.div_val == 1: + embed = self.emb_layers[0](inp) + if self.d_proj != self.d_embed: + embed = F.linear(embed, self.emb_projs[0]) + else: + param = next(self.parameters()) + inp_flat = inp.view(-1) + emb_flat = torch.zeros([inp_flat.size(0), self.d_proj], + dtype=param.dtype, device=param.device) + for i in range(len(self.cutoffs)): + l_idx, r_idx = self.cutoff_ends[i], self.cutoff_ends[i + 1] + + mask_i = (inp_flat >= l_idx) & (inp_flat < r_idx) + indices_i = mask_i.nonzero().squeeze() + + if indices_i.numel() == 0: + continue + + inp_i = inp_flat.index_select(0, indices_i) - l_idx + emb_i = self.emb_layers[i](inp_i) + emb_i = F.linear(emb_i, self.emb_projs[i]) + + emb_flat.index_copy_(0, indices_i, emb_i) + + embed_shape = inp.size() + (self.d_proj,) + embed = emb_flat.view(embed_shape) + + embed.mul_(self.emb_scale) + + return embed + + +class TransfoXLPreTrainedModel(nn.Module): + """ An abstract class to handle weights initialization and + a simple interface for dowloading and loading pretrained models. + """ + def __init__(self, config, *inputs, **kwargs): + super(TransfoXLPreTrainedModel, self).__init__() + if not isinstance(config, TransfoXLConfig): + raise ValueError( + "Parameter config in `{}(config)` should be an instance of class `TransfoXLConfig`. " + "To create a model from a pretrained model use " + "`model = {}.from_pretrained(PRETRAINED_MODEL_NAME)`".format( + self.__class__.__name__, self.__class__.__name__ + )) + self.config = config + + def init_weight(self, weight): + if self.config.init == 'uniform': + nn.init.uniform_(weight, -self.config.init_range, self.config.init_range) + elif self.config.init == 'normal': + nn.init.normal_(weight, 0.0, self.config.init_std) + + def init_bias(self, bias): + nn.init.constant_(bias, 0.0) + + def init_weights(self, m): + """ Initialize the weights. + """ + classname = m.__class__.__name__ + if classname.find('Linear') != -1: + if hasattr(m, 'weight') and m.weight is not None: + self.init_weight(m.weight) + if hasattr(m, 'bias') and m.bias is not None: + self.init_bias(m.bias) + elif classname.find('AdaptiveEmbedding') != -1: + if hasattr(m, 'emb_projs'): + for i in range(len(m.emb_projs)): + if m.emb_projs[i] is not None: + nn.init.normal_(m.emb_projs[i], 0.0, self.config.proj_init_std) + elif classname.find('Embedding') != -1: + if hasattr(m, 'weight'): + self.init_weight(m.weight) + elif classname.find('ProjectedAdaptiveLogSoftmax') != -1: + if hasattr(m, 'cluster_weight') and m.cluster_weight is not None: + self.init_weight(m.cluster_weight) + if hasattr(m, 'cluster_bias') and m.cluster_bias is not None: + self.init_bias(m.cluster_bias) + if hasattr(m, 'out_projs'): + for i in range(len(m.out_projs)): + if m.out_projs[i] is not None: + nn.init.normal_(m.out_projs[i], 0.0, self.config.proj_init_std) + elif classname.find('LayerNorm') != -1: + if hasattr(m, 'weight'): + nn.init.normal_(m.weight, 1.0, self.config.init_std) + if hasattr(m, 'bias') and m.bias is not None: + self.init_bias(m.bias) + elif classname.find('TransformerLM') != -1: + if hasattr(m, 'r_emb'): + self.init_weight(m.r_emb) + if hasattr(m, 'r_w_bias'): + self.init_weight(m.r_w_bias) + if hasattr(m, 'r_r_bias'): + self.init_weight(m.r_r_bias) + if hasattr(m, 'r_bias'): + self.init_bias(m.r_bias) + + def set_num_special_tokens(self, num_special_tokens): + pass + + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, state_dict=None, cache_dir=None, + from_tf=False, *inputs, **kwargs): + """ + Instantiate a TransfoXLPreTrainedModel from a pre-trained model file or a pytorch state dict. + Download and cache the pre-trained model file if needed. + + Params: + pretrained_model_name_or_path: either: + - a str with the name of a pre-trained model to load selected in the list of: + . `transfo-xl` + - a path or url to a pretrained model archive containing: + . `transfo_xl_config.json` a configuration file for the model + . `pytorch_model.bin` a PyTorch dump of a TransfoXLModel instance + - a path or url to a pretrained model archive containing: + . `bert_config.json` a configuration file for the model + . `model.chkpt` a TensorFlow checkpoint + from_tf: should we load the weights from a locally saved TensorFlow checkpoint + cache_dir: an optional path to a folder in which the pre-trained models will be cached. + state_dict: an optional state dictionnary (collections.OrderedDict object) to use instead of pre-trained models + *inputs, **kwargs: additional input for the specific Bert class + (ex: num_labels for BertForSequenceClassification) + """ + if pretrained_model_name_or_path in PRETRAINED_MODEL_ARCHIVE_MAP: + archive_file = PRETRAINED_MODEL_ARCHIVE_MAP[pretrained_model_name_or_path] + config_file = PRETRAINED_CONFIG_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + archive_file = os.path.join(pretrained_model_name_or_path, WEIGHTS_NAME) + config_file = os.path.join(pretrained_model_name_or_path, CONFIG_NAME) + # redirect to the cache, if necessary + try: + resolved_archive_file = cached_path(archive_file, cache_dir=cache_dir) + resolved_config_file = cached_path(config_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} and {} " + "at this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_MODEL_ARCHIVE_MAP.keys()), + pretrained_model_name_or_path, + archive_file, config_file)) + return None + if resolved_archive_file == archive_file and resolved_config_file == config_file: + logger.info("loading weights file {}".format(archive_file)) + logger.info("loading configuration file {}".format(config_file)) + else: + logger.info("loading weights file {} from cache at {}".format( + archive_file, resolved_archive_file)) + logger.info("loading configuration file {} from cache at {}".format( + config_file, resolved_config_file)) + # Load config + config = TransfoXLConfig.from_json_file(resolved_config_file) + logger.info("Model config {}".format(config)) + # Instantiate model. + model = cls(config, *inputs, **kwargs) + if state_dict is None and not from_tf: + state_dict = torch.load(resolved_archive_file, map_location='cpu') + if from_tf: + # Directly load from a TensorFlow checkpoint + return load_tf_weights_in_transfo_xl(model, config, pretrained_model_name_or_path) + + missing_keys = [] + unexpected_keys = [] + error_msgs = [] + # copy state_dict so _load_from_state_dict can modify it + metadata = getattr(state_dict, '_metadata', None) + state_dict = state_dict.copy() + if metadata is not None: + state_dict._metadata = metadata + + def load(module, prefix=''): + local_metadata = {} if metadata is None else metadata.get(prefix[:-1], {}) + module._load_from_state_dict( + state_dict, prefix, local_metadata, True, missing_keys, unexpected_keys, error_msgs) + for name, child in module._modules.items(): + if child is not None: + load(child, prefix + name + '.') + + start_prefix = '' + if not hasattr(model, 'transformer') and any(s.startswith('transformer.') for s in state_dict.keys()): + start_prefix = 'transformer.' + load(model, prefix=start_prefix) + + if len(missing_keys) > 0: + logger.info("Weights of {} not initialized from pretrained model: {}".format( + model.__class__.__name__, missing_keys)) + if len(unexpected_keys) > 0: + logger.info("Weights from pretrained model not used in {}: {}".format( + model.__class__.__name__, unexpected_keys)) + if len(error_msgs) > 0: + raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format( + model.__class__.__name__, "\n\t".join(error_msgs))) + # Make sure we are still sharing the input and output embeddings + if hasattr(model, 'tie_weights'): + model.tie_weights() + return model + + +class TransfoXLModel(TransfoXLPreTrainedModel): + """Transformer XL model ("Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context"). + + Transformer XL use a relative positioning (with sinusiodal patterns) and adaptive softmax inputs which means that: + - you don't need to specify positioning embeddings indices + - the tokens in the vocabulary have to be sorted to decreasing frequency. + + Params: + config: a TransfoXLConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the token indices selected in the range [0, self.config.n_token[ + `mems`: optional memomry of hidden states from previous forward passes + as a list (num layers) of hidden states at the entry of each layer + each hidden states has shape [self.config.mem_len, bsz, self.config.d_model] + Note that the first two dimensions are transposed in `mems` with regards to `input_ids` and `target` + Outputs: + A tuple of (last_hidden_state, new_mems) + `last_hidden_state`: the encoded-hidden-states at the top of the model + as a torch.FloatTensor of size [batch_size, sequence_length, self.config.d_model] + `new_mems`: list (num layers) of updated mem states at the entry of each layer + each mem state is a torch.FloatTensor of size [self.config.mem_len, batch_size, self.config.d_model] + Note that the first two dimensions are transposed in `mems` with regards to `input_ids` and `target` + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_ids_next = torch.LongTensor([[53, 21, 1], [64, 23, 100]]) + + config = TransfoXLConfig() + + model = TransfoXLModel(config) + last_hidden_state, new_mems = model(input_ids) + + # Another time on input_ids_next using the memory: + last_hidden_state, new_mems = model(input_ids_next, new_mems) + ``` + """ + def __init__(self, config): + super(TransfoXLModel, self).__init__(config) + self.n_token = config.n_token + + self.d_embed = config.d_embed + self.d_model = config.d_model + self.n_head = config.n_head + self.d_head = config.d_head + + self.word_emb = AdaptiveEmbedding(config.n_token, config.d_embed, config.d_model, config.cutoffs, + div_val=config.div_val) + + self.drop = nn.Dropout(config.dropout) + + self.n_layer = config.n_layer + + self.tgt_len = config.tgt_len + self.mem_len = config.mem_len + self.ext_len = config.ext_len + self.max_klen = config.tgt_len + config.ext_len + config.mem_len + + self.attn_type = config.attn_type + + if not config.untie_r: + self.r_w_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + self.r_r_bias = nn.Parameter(torch.Tensor(self.n_head, self.d_head)) + + self.layers = nn.ModuleList() + if config.attn_type == 0: # the default attention + for i in range(config.n_layer): + self.layers.append( + RelPartialLearnableDecoderLayer( + config.n_head, config.d_model, config.d_head, config.d_inner, config.dropout, + tgt_len=config.tgt_len, ext_len=config.ext_len, mem_len=config.mem_len, + dropatt=config.dropatt, pre_lnorm=config.pre_lnorm, + r_w_bias=None if config.untie_r else self.r_w_bias, + r_r_bias=None if config.untie_r else self.r_r_bias) + ) + elif config.attn_type == 1: # learnable embeddings + for i in range(config.n_layer): + self.layers.append( + RelLearnableDecoderLayer( + config.n_head, config.d_model, config.d_head, config.d_inner, config.dropout, + tgt_len=config.tgt_len, ext_len=config.ext_len, mem_len=config.mem_len, + dropatt=config.dropatt, pre_lnorm=config.pre_lnorm, + r_w_bias=None if config.untie_r else self.r_w_bias, + r_r_bias=None if config.untie_r else self.r_r_bias) + ) + elif config.attn_type in [2, 3]: # absolute embeddings + for i in range(config.n_layer): + self.layers.append( + DecoderLayer( + config.n_head, config.d_model, config.d_head, config.d_inner, config.dropout, + dropatt=config.dropatt, pre_lnorm=config.pre_lnorm, + r_w_bias=None if config.untie_r else self.r_w_bias, + r_r_bias=None if config.untie_r else self.r_r_bias) + ) + + self.same_length = config.same_length + self.clamp_len = config.clamp_len + + if self.attn_type == 0: # default attention + self.pos_emb = PositionalEmbedding(self.d_model) + elif self.attn_type == 1: # learnable + self.r_emb = nn.Parameter(torch.Tensor( + self.n_layer, self.max_klen, self.n_head, self.d_head)) + self.r_bias = nn.Parameter(torch.Tensor( + self.n_layer, self.max_klen, self.n_head)) + elif self.attn_type == 2: # absolute standard + self.pos_emb = PositionalEmbedding(self.d_model) + elif self.attn_type == 3: # absolute deeper SA + self.r_emb = nn.Parameter(torch.Tensor( + self.n_layer, self.max_klen, self.n_head, self.d_head)) + self.apply(self.init_weights) + + def backward_compatible(self): + self.sample_softmax = -1 + + + def reset_length(self, tgt_len, ext_len, mem_len): + self.tgt_len = tgt_len + self.mem_len = mem_len + self.ext_len = ext_len + + def init_mems(self, data): + if self.mem_len > 0: + mems = [] + param = next(self.parameters()) + for i in range(self.n_layer): + empty = torch.zeros(self.mem_len, data.size(1), self.config.d_model, + dtype=param.dtype, device=param.device) + mems.append(empty) + + return mems + else: + return None + + def _update_mems(self, hids, mems, qlen, mlen): + # does not deal with None + if mems is None: return None + + # mems is not None + assert len(hids) == len(mems), 'len(hids) != len(mems)' + + # There are `mlen + qlen` steps that can be cached into mems + # For the next step, the last `ext_len` of the `qlen` tokens + # will be used as the extended context. Hence, we only cache + # the tokens from `mlen + qlen - self.ext_len - self.mem_len` + # to `mlen + qlen - self.ext_len`. + with torch.no_grad(): + new_mems = [] + end_idx = mlen + max(0, qlen - 0 - self.ext_len) + beg_idx = max(0, end_idx - self.mem_len) + for i in range(len(hids)): + + cat = torch.cat([mems[i], hids[i]], dim=0) + new_mems.append(cat[beg_idx:end_idx].detach()) + + return new_mems + + def _forward(self, dec_inp, mems=None): + qlen, bsz = dec_inp.size() + + word_emb = self.word_emb(dec_inp) + + mlen = mems[0].size(0) if mems is not None else 0 + klen = mlen + qlen + if self.same_length: + all_ones = word_emb.new_ones(qlen, klen) + mask_len = klen - self.mem_len + if mask_len > 0: + mask_shift_len = qlen - mask_len + else: + mask_shift_len = qlen + dec_attn_mask = (torch.triu(all_ones, 1+mlen) + + torch.tril(all_ones, -mask_shift_len)).byte()[:, :, None] # -1 + else: + dec_attn_mask = torch.triu( + word_emb.new_ones(qlen, klen), diagonal=1+mlen).byte()[:,:,None] + + hids = [] + if self.attn_type == 0: # default + pos_seq = torch.arange(klen-1, -1, -1.0, device=word_emb.device, + dtype=word_emb.dtype) + if self.clamp_len > 0: + pos_seq.clamp_(max=self.clamp_len) + pos_emb = self.pos_emb(pos_seq) + + core_out = self.drop(word_emb) + pos_emb = self.drop(pos_emb) + + for i, layer in enumerate(self.layers): + hids.append(core_out) + mems_i = None if mems is None else mems[i] + core_out = layer(core_out, pos_emb, dec_attn_mask=dec_attn_mask, mems=mems_i) + elif self.attn_type == 1: # learnable + core_out = self.drop(word_emb) + for i, layer in enumerate(self.layers): + hids.append(core_out) + if self.clamp_len > 0: + r_emb = self.r_emb[i][-self.clamp_len :] + r_bias = self.r_bias[i][-self.clamp_len :] + else: + r_emb, r_bias = self.r_emb[i], self.r_bias[i] + + mems_i = None if mems is None else mems[i] + core_out = layer(core_out, r_emb, self.r_w_bias[i], + r_bias, dec_attn_mask=dec_attn_mask, mems=mems_i) + elif self.attn_type == 2: # absolute + pos_seq = torch.arange(klen - 1, -1, -1.0, device=word_emb.device, + dtype=word_emb.dtype) + if self.clamp_len > 0: + pos_seq.clamp_(max=self.clamp_len) + pos_emb = self.pos_emb(pos_seq) + + core_out = self.drop(word_emb + pos_emb[-qlen:]) + + for i, layer in enumerate(self.layers): + hids.append(core_out) + mems_i = None if mems is None else mems[i] + if mems_i is not None and i == 0: + mems_i += pos_emb[:mlen] + core_out = layer(core_out, dec_attn_mask=dec_attn_mask, + mems=mems_i) + elif self.attn_type == 3: + core_out = self.drop(word_emb) + + for i, layer in enumerate(self.layers): + hids.append(core_out) + mems_i = None if mems is None else mems[i] + if mems_i is not None and mlen > 0: + cur_emb = self.r_emb[i][:-qlen] + cur_size = cur_emb.size(0) + if cur_size < mlen: + cur_emb_pad = cur_emb[0:1].expand(mlen-cur_size, -1, -1) + cur_emb = torch.cat([cur_emb_pad, cur_emb], 0) + else: + cur_emb = cur_emb[-mlen:] + mems_i += cur_emb.view(mlen, 1, -1) + core_out += self.r_emb[i][-qlen:].view(qlen, 1, -1) + + core_out = layer(core_out, dec_attn_mask=dec_attn_mask, + mems=mems_i) + + core_out = self.drop(core_out) + + new_mems = self._update_mems(hids, mems, mlen, qlen) + + return core_out, new_mems + + def forward(self, input_ids, mems=None): + """ Params: + input_ids :: [bsz, len] + mems :: optional mems from previous forwar passes (or init_mems) + list (num layers) of mem states at the entry of each layer + shape :: [self.config.mem_len, bsz, self.config.d_model] + Note that the first two dimensions are transposed in `mems` with regards to `input_ids` and `target` + Returns: + tuple (last_hidden, new_mems) where: + new_mems: list (num layers) of mem states at the entry of each layer + shape :: [self.config.mem_len, bsz, self.config.d_model] + last_hidden: output of the last layer: + shape :: [bsz, len, self.config.d_model] + """ + # the original code for Transformer-XL used shapes [len, bsz] but we want a unified interface in the library + # so we transpose here from shape [bsz, len] to shape [len, bsz] + input_ids = input_ids.transpose(0, 1).contiguous() + + if mems is None: + mems = self.init_mems(input_ids) + last_hidden, new_mems = self._forward(input_ids, mems=mems) + + # We transpose back here to shape [bsz, len, hidden_dim] + last_hidden = last_hidden.transpose(0, 1).contiguous() + return (last_hidden, new_mems) + + +class TransfoXLLMHeadModel(TransfoXLPreTrainedModel): + """Transformer XL model ("Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context"). + + This model add an (adaptive) softmax head on top of the TransfoXLModel + + Transformer XL use a relative positioning (with sinusiodal patterns) and adaptive softmax inputs which means that: + - you don't need to specify positioning embeddings indices + - the tokens in the vocabulary have to be sorted to decreasing frequency. + + Call self.tie_weights() if you update/load the weights of the transformer to keep the weights tied. + + Params: + config: a TransfoXLConfig class instance with the configuration to build a new model + + Inputs: + `input_ids`: a torch.LongTensor of shape [batch_size, sequence_length] + with the token indices selected in the range [0, self.config.n_token[ + `target`: an optional torch.LongTensor of shape [batch_size, sequence_length] + with the target token indices selected in the range [0, self.config.n_token[ + `mems`: an optional memory of hidden states from previous forward passes + as a list (num layers) of hidden states at the entry of each layer + each hidden states has shape [self.config.mem_len, bsz, self.config.d_model] + Note that the first two dimensions are transposed in `mems` with regards to `input_ids` and `target` + + Outputs: + A tuple of (last_hidden_state, new_mems) + `softmax_output`: output of the (adaptive) softmax: + if target is None: + Negative log likelihood of shape [batch_size, sequence_length] + else: + log probabilities of tokens, shape [batch_size, sequence_length, n_tokens] + `new_mems`: list (num layers) of updated mem states at the entry of each layer + each mem state is a torch.FloatTensor of size [self.config.mem_len, batch_size, self.config.d_model] + Note that the first two dimensions are transposed in `mems` with regards to `input_ids` and `target` + + Example usage: + ```python + # Already been converted into BPE token ids + input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]]) + input_ids_next = torch.LongTensor([[53, 21, 1], [64, 23, 100]]) + + config = TransfoXLConfig() + + model = TransfoXLModel(config) + last_hidden_state, new_mems = model(input_ids) + + # Another time on input_ids_next using the memory: + last_hidden_state, new_mems = model(input_ids_next, mems=new_mems) + ``` + """ + def __init__(self, config): + super(TransfoXLLMHeadModel, self).__init__(config) + self.transformer = TransfoXLModel(config) + self.sample_softmax = config.sample_softmax + # use sampled softmax + if config.sample_softmax > 0: + self.out_layer = nn.Linear(config.d_model, config.n_token) + self.sampler = LogUniformSampler(config.n_token, config.sample_softmax) + # use adaptive softmax (including standard softmax) + else: + self.crit = ProjectedAdaptiveLogSoftmax(config.n_token, config.d_embed, config.d_model, + config.cutoffs, div_val=config.div_val) + self.apply(self.init_weights) + self.tie_weights() + + def tie_weights(self): + """ Run this to be sure output and input (adaptive) softmax weights are tied """ + # sampled softmax + if self.sample_softmax > 0: + if self.config.tie_weight: + self.out_layer.weight = self.transformer.word_emb.weight + # adaptive softmax (including standard softmax) + else: + if self.config.tie_weight: + for i in range(len(self.crit.out_layers)): + self.crit.out_layers[i].weight = self.transformer.word_emb.emb_layers[i].weight + if self.config.tie_projs: + for i, tie_proj in enumerate(self.config.tie_projs): + if tie_proj and self.config.div_val == 1 and self.config.d_model != self.config.d_embed: + self.crit.out_projs[i] = self.transformer.word_emb.emb_projs[0] + elif tie_proj and self.config.div_val != 1: + self.crit.out_projs[i] = self.transformer.word_emb.emb_projs[i] + + def reset_length(self, tgt_len, ext_len, mem_len): + self.transformer.reset_length(tgt_len, ext_len, mem_len) + + def init_mems(self, data): + return self.transformer.init_mems(data) + + def forward(self, input_ids, target=None, mems=None): + """ Params: + input_ids :: [bsz, len] + target :: [bsz, len] + Returns: + tuple(softmax_output, new_mems) where: + new_mems: list (num layers) of hidden states at the entry of each layer + shape :: [mem_len, bsz, self.config.d_model] :: Warning: shapes are transposed here w. regards to input_ids + softmax_output: output of the (adaptive) softmax: + if target is None: + Negative log likelihood of shape :: [bsz, len] + else: + log probabilities of tokens, shape :: [bsz, len, n_tokens] + """ + bsz = input_ids.size(0) + tgt_len = input_ids.size(1) + + last_hidden, new_mems = self.transformer(input_ids, mems) + + pred_hid = last_hidden[:, -tgt_len:] + if self.sample_softmax > 0 and self.training: + assert self.config.tie_weight + logit = sample_logits(self.transformer.word_emb, self.out_layer.bias, target, pred_hid, self.sampler) + softmax_output = -F.log_softmax(logit, -1)[:, :, 0] + else: + softmax_output = self.crit(pred_hid.view(-1, pred_hid.size(-1)), target) + if target is None: + softmax_output = softmax_output.view(bsz, tgt_len, -1) + else: + softmax_output = softmax_output.view(bsz, tgt_len) + + # We transpose back + return (softmax_output, new_mems) diff --git a/pytorch_pretrained/modeling_transfo_xl_utilities.py b/pytorch_pretrained/modeling_transfo_xl_utilities.py new file mode 100644 index 0000000000000000000000000000000000000000..647ba7774c1522ba90c9c8804215fb8068f10a01 --- /dev/null +++ b/pytorch_pretrained/modeling_transfo_xl_utilities.py @@ -0,0 +1,402 @@ +# coding=utf-8 +# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" Utilities for PyTorch Transformer XL model. + Directly adapted from https://github.com/kimiyoung/transformer-xl. +""" + +from collections import defaultdict + +import numpy as np + +import torch +import torch.nn as nn +import torch.nn.functional as F + +# CUDA_MAJOR = int(torch.version.cuda.split('.')[0]) +# CUDA_MINOR = int(torch.version.cuda.split('.')[1]) + +class ProjectedAdaptiveLogSoftmax(nn.Module): + def __init__(self, n_token, d_embed, d_proj, cutoffs, div_val=1, + keep_order=False): + super(ProjectedAdaptiveLogSoftmax, self).__init__() + + self.n_token = n_token + self.d_embed = d_embed + self.d_proj = d_proj + + self.cutoffs = cutoffs + [n_token] + self.cutoff_ends = [0] + self.cutoffs + self.div_val = div_val + + self.shortlist_size = self.cutoffs[0] + self.n_clusters = len(self.cutoffs) - 1 + self.head_size = self.shortlist_size + self.n_clusters + + if self.n_clusters > 0: + self.cluster_weight = nn.Parameter(torch.zeros(self.n_clusters, self.d_embed)) + self.cluster_bias = nn.Parameter(torch.zeros(self.n_clusters)) + + self.out_layers = nn.ModuleList() + self.out_projs = nn.ParameterList() + + if div_val == 1: + for i in range(len(self.cutoffs)): + if d_proj != d_embed: + self.out_projs.append( + nn.Parameter(torch.Tensor(d_proj, d_embed)) + ) + else: + self.out_projs.append(None) + + self.out_layers.append(nn.Linear(d_embed, n_token)) + else: + for i in range(len(self.cutoffs)): + l_idx, r_idx = self.cutoff_ends[i], self.cutoff_ends[i+1] + d_emb_i = d_embed // (div_val ** i) + + self.out_projs.append( + nn.Parameter(torch.Tensor(d_proj, d_emb_i)) + ) + + self.out_layers.append(nn.Linear(d_emb_i, r_idx-l_idx)) + + self.keep_order = keep_order + + def _compute_logit(self, hidden, weight, bias, proj): + if proj is None: + logit = F.linear(hidden, weight, bias=bias) + else: + # if CUDA_MAJOR <= 9 and CUDA_MINOR <= 1: + proj_hid = F.linear(hidden, proj.t().contiguous()) + logit = F.linear(proj_hid, weight, bias=bias) + # else: + # logit = torch.einsum('bd,de,ev->bv', (hidden, proj, weight.t())) + # if bias is not None: + # logit = logit + bias + + return logit + + def forward(self, hidden, target=None, keep_order=False): + ''' + Params: + hidden :: [len*bsz x d_proj] + target :: [len*bsz] + Return: + if target is None: + out :: [len*bsz] Negative log likelihood + else: + out :: [len*bsz x n_tokens] log probabilities of tokens over the vocabulary + We could replace this implementation by the native PyTorch one + if their's had an option to set bias on all clusters in the native one. + here: https://github.com/pytorch/pytorch/blob/dbe6a7a9ff1a364a8706bf5df58a1ca96d2fd9da/torch/nn/modules/adaptive.py#L138 + ''' + + if target is not None: + target = target.view(-1) + if hidden.size(0) != target.size(0): + raise RuntimeError('Input and target should have the same size ' + 'in the batch dimension.') + + if self.n_clusters == 0: + logit = self._compute_logit(hidden, self.out_layers[0].weight, + self.out_layers[0].bias, self.out_projs[0]) + if target is not None: + output = -F.log_softmax(logit, dim=-1) \ + .gather(1, target.unsqueeze(1)).squeeze(1) + else: + output = F.log_softmax(logit, dim=-1) + else: + # construct weights and biases + weights, biases = [], [] + for i in range(len(self.cutoffs)): + if self.div_val == 1: + l_idx, r_idx = self.cutoff_ends[i], self.cutoff_ends[i + 1] + weight_i = self.out_layers[0].weight[l_idx:r_idx] + bias_i = self.out_layers[0].bias[l_idx:r_idx] + else: + weight_i = self.out_layers[i].weight + bias_i = self.out_layers[i].bias + + if i == 0: + weight_i = torch.cat( + [weight_i, self.cluster_weight], dim=0) + bias_i = torch.cat( + [bias_i, self.cluster_bias], dim=0) + + weights.append(weight_i) + biases.append(bias_i) + + head_weight, head_bias, head_proj = weights[0], biases[0], self.out_projs[0] + + head_logit = self._compute_logit(hidden, head_weight, head_bias, head_proj) + head_logprob = F.log_softmax(head_logit, dim=1) + + if target is None: + out = hidden.new_empty((head_logit.size(0), self.n_token)) + else: + out = torch.zeros_like(target, dtype=hidden.dtype, device=hidden.device) + + offset = 0 + cutoff_values = [0] + self.cutoffs + for i in range(len(cutoff_values) - 1): + l_idx, r_idx = cutoff_values[i], cutoff_values[i + 1] + + if target is not None: + mask_i = (target >= l_idx) & (target < r_idx) + indices_i = mask_i.nonzero().squeeze() + + if indices_i.numel() == 0: + continue + + target_i = target.index_select(0, indices_i) - l_idx + head_logprob_i = head_logprob.index_select(0, indices_i) + hidden_i = hidden.index_select(0, indices_i) + else: + hidden_i = hidden + + if i == 0: + if target is not None: + logprob_i = head_logprob_i.gather(1, target_i[:, None]).squeeze(1) + else: + out[:, :self.cutoffs[0]] = head_logprob[:, :self.cutoffs[0]] + else: + weight_i, bias_i, proj_i = weights[i], biases[i], self.out_projs[i] + + tail_logit_i = self._compute_logit(hidden_i, weight_i, bias_i, proj_i) + tail_logprob_i = F.log_softmax(tail_logit_i, dim=1) + cluster_prob_idx = self.cutoffs[0] + i - 1 # No probability for the head cluster + if target is not None: + logprob_i = head_logprob_i[:, cluster_prob_idx] \ + + tail_logprob_i.gather(1, target_i[:, None]).squeeze(1) + else: + logprob_i = head_logprob[:, cluster_prob_idx, None] + tail_logprob_i + out[:, l_idx:r_idx] = logprob_i + + if target is not None: + if (hasattr(self, 'keep_order') and self.keep_order) or keep_order: + out.index_copy_(0, indices_i, -logprob_i) + else: + out[offset:offset+logprob_i.size(0)].copy_(-logprob_i) + offset += logprob_i.size(0) + + return out + + + def log_prob(self, hidden): + r""" Computes log probabilities for all :math:`n\_classes` + From: https://github.com/pytorch/pytorch/blob/master/torch/nn/modules/adaptive.py + Args: + hidden (Tensor): a minibatch of examples + Returns: + log-probabilities of for each class :math:`c` + in range :math:`0 <= c <= n\_classes`, where :math:`n\_classes` is a + parameter passed to ``AdaptiveLogSoftmaxWithLoss`` constructor. + Shape: + - Input: :math:`(N, in\_features)` + - Output: :math:`(N, n\_classes)` + """ + if self.n_clusters == 0: + logit = self._compute_logit(hidden, self.out_layers[0].weight, + self.out_layers[0].bias, self.out_projs[0]) + return F.log_softmax(logit, dim=-1) + else: + # construct weights and biases + weights, biases = [], [] + for i in range(len(self.cutoffs)): + if self.div_val == 1: + l_idx, r_idx = self.cutoff_ends[i], self.cutoff_ends[i + 1] + weight_i = self.out_layers[0].weight[l_idx:r_idx] + bias_i = self.out_layers[0].bias[l_idx:r_idx] + else: + weight_i = self.out_layers[i].weight + bias_i = self.out_layers[i].bias + + if i == 0: + weight_i = torch.cat( + [weight_i, self.cluster_weight], dim=0) + bias_i = torch.cat( + [bias_i, self.cluster_bias], dim=0) + + weights.append(weight_i) + biases.append(bias_i) + + head_weight, head_bias, head_proj = weights[0], biases[0], self.out_projs[0] + head_logit = self._compute_logit(hidden, head_weight, head_bias, head_proj) + + out = hidden.new_empty((head_logit.size(0), self.n_token)) + head_logprob = F.log_softmax(head_logit, dim=1) + + cutoff_values = [0] + self.cutoffs + for i in range(len(cutoff_values) - 1): + start_idx, stop_idx = cutoff_values[i], cutoff_values[i + 1] + + if i == 0: + out[:, :self.cutoffs[0]] = head_logprob[:, :self.cutoffs[0]] + else: + weight_i, bias_i, proj_i = weights[i], biases[i], self.out_projs[i] + + tail_logit_i = self._compute_logit(hidden, weight_i, bias_i, proj_i) + tail_logprob_i = F.log_softmax(tail_logit_i, dim=1) + + logprob_i = head_logprob[:, -i] + tail_logprob_i + out[:, start_idx, stop_idx] = logprob_i + + return out + + +class LogUniformSampler(object): + def __init__(self, range_max, n_sample): + """ + Reference : https://github.com/tensorflow/tensorflow/blob/r1.10/tensorflow/python/ops/candidate_sampling_ops.py + `P(class) = (log(class + 2) - log(class + 1)) / log(range_max + 1)` + + expected count can be approximated by 1 - (1 - p)^n + and we use a numerically stable version -expm1(num_tries * log1p(-p)) + + Our implementation fixes num_tries at 2 * n_sample, and the actual #samples will vary from run to run + """ + with torch.no_grad(): + self.range_max = range_max + log_indices = torch.arange(1., range_max+2., 1.).log_() + self.dist = (log_indices[1:] - log_indices[:-1]) / log_indices[-1] + # print('P', self.dist.numpy().tolist()[-30:]) + + self.log_q = (- (-self.dist.double().log1p_() * 2 * n_sample).expm1_()).log_().float() + + self.n_sample = n_sample + + def sample(self, labels): + """ + labels: [b1, b2] + Return + true_log_probs: [b1, b2] + samp_log_probs: [n_sample] + neg_samples: [n_sample] + """ + + # neg_samples = torch.empty(0).long() + n_sample = self.n_sample + n_tries = 2 * n_sample + + with torch.no_grad(): + neg_samples = torch.multinomial(self.dist, n_tries, replacement=True).unique() + device = labels.device + neg_samples = neg_samples.to(device) + true_log_probs = self.log_q[labels].to(device) + samp_log_probs = self.log_q[neg_samples].to(device) + return true_log_probs, samp_log_probs, neg_samples + +def sample_logits(embedding, bias, labels, inputs, sampler): + """ + embedding: an nn.Embedding layer + bias: [n_vocab] + labels: [b1, b2] + inputs: [b1, b2, n_emb] + sampler: you may use a LogUniformSampler + Return + logits: [b1, b2, 1 + n_sample] + """ + true_log_probs, samp_log_probs, neg_samples = sampler.sample(labels) + n_sample = neg_samples.size(0) + b1, b2 = labels.size(0), labels.size(1) + all_ids = torch.cat([labels.view(-1), neg_samples]) + all_w = embedding(all_ids) + true_w = all_w[: -n_sample].view(b1, b2, -1) + sample_w = all_w[- n_sample:].view(n_sample, -1) + + all_b = bias[all_ids] + true_b = all_b[: -n_sample].view(b1, b2) + sample_b = all_b[- n_sample:] + + hit = (labels[:, :, None] == neg_samples).detach() + + true_logits = torch.einsum('ijk,ijk->ij', + [true_w, inputs]) + true_b - true_log_probs + sample_logits = torch.einsum('lk,ijk->ijl', + [sample_w, inputs]) + sample_b - samp_log_probs + sample_logits.masked_fill_(hit, -1e30) + logits = torch.cat([true_logits[:, :, None], sample_logits], -1) + + return logits + + +# class LogUniformSampler(object): +# def __init__(self, range_max, unique=False): +# """ +# Reference : https://github.com/tensorflow/tensorflow/blob/r1.10/tensorflow/python/ops/candidate_sampling_ops.py +# `P(class) = (log(class + 2) - log(class + 1)) / log(range_max + 1)` +# """ +# self.range_max = range_max +# log_indices = torch.arange(1., range_max+2., 1.).log_() +# self.dist = (log_indices[1:] - log_indices[:-1]) / log_indices[-1] + +# self.unique = unique + +# if self.unique: +# self.exclude_mask = torch.ByteTensor(range_max).fill_(0) + +# def sample(self, n_sample, labels): +# pos_sample, new_labels = labels.unique(return_inverse=True) +# n_pos_sample = pos_sample.size(0) +# n_neg_sample = n_sample - n_pos_sample + +# if self.unique: +# self.exclude_mask.index_fill_(0, pos_sample, 1) +# sample_dist = self.dist.clone().masked_fill_(self.exclude_mask, 0) +# self.exclude_mask.index_fill_(0, pos_sample, 0) +# else: +# sample_dist = self.dist + +# neg_sample = torch.multinomial(sample_dist, n_neg_sample) + +# sample = torch.cat([pos_sample, neg_sample]) +# sample_prob = self.dist[sample] + +# return new_labels, sample, sample_prob + + +if __name__ == '__main__': + S, B = 3, 4 + n_vocab = 10000 + n_sample = 5 + H = 32 + + labels = torch.LongTensor(S, B).random_(0, n_vocab) + + # sampler = LogUniformSampler(n_vocab, unique=False) + # new_labels, sample, sample_prob = sampler.sample(n_sample, labels) + + sampler = LogUniformSampler(n_vocab, n_sample)#, unique=True) + # true_probs, samp_probs, neg_samples = sampler.sample(n_sample, labels) + + # print('true_probs', true_probs.numpy().tolist()) + # print('samp_probs', samp_probs.numpy().tolist()) + # print('neg_samples', neg_samples.numpy().tolist()) + + # print('sum', torch.sum(sampler.dist).item()) + + # assert torch.all(torch.sort(sample.unique())[0].eq(torch.sort(sample)[0])).item() + + embedding = nn.Embedding(n_vocab, H) + bias = torch.zeros(n_vocab) + inputs = torch.Tensor(S, B, H).normal_() + + logits, out_labels = sample_logits(embedding, bias, labels, inputs, sampler, n_sample) + print('logits', logits.detach().numpy().tolist()) + print('logits shape', logits.size()) + print('out_labels', out_labels.detach().numpy().tolist()) + print('out_labels shape', out_labels.size()) + diff --git a/pytorch_pretrained/optimization.py b/pytorch_pretrained/optimization.py new file mode 100644 index 0000000000000000000000000000000000000000..03856956ace6929792734f6f7cfcd8fd3b0a5939 --- /dev/null +++ b/pytorch_pretrained/optimization.py @@ -0,0 +1,302 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors and The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""PyTorch optimization for BERT model.""" + +import math +import torch +from torch.optim import Optimizer +from torch.optim.optimizer import required +from torch.nn.utils import clip_grad_norm_ +import logging +import abc +import sys + +logger = logging.getLogger(__name__) + + +if sys.version_info >= (3, 4): + ABC = abc.ABC +else: + ABC = abc.ABCMeta('ABC', (), {}) + + +class _LRSchedule(ABC): + """ Parent of all LRSchedules here. """ + warn_t_total = False # is set to True for schedules where progressing beyond t_total steps doesn't make sense + def __init__(self, warmup=0.002, t_total=-1, **kw): + """ + :param warmup: what fraction of t_total steps will be used for linear warmup + :param t_total: how many training steps (updates) are planned + :param kw: + """ + super(_LRSchedule, self).__init__(**kw) + if t_total < 0: + logger.warning("t_total value of {} results in schedule not being applied".format(t_total)) + if not 0.0 <= warmup < 1.0 and not warmup == -1: + raise ValueError("Invalid warmup: {} - should be in [0.0, 1.0[ or -1".format(warmup)) + warmup = max(warmup, 0.) + self.warmup, self.t_total = float(warmup), float(t_total) + self.warned_for_t_total_at_progress = -1 + + def get_lr(self, step, nowarn=False): + """ + :param step: which of t_total steps we're on + :param nowarn: set to True to suppress warning regarding training beyond specified 't_total' steps + :return: learning rate multiplier for current update + """ + if self.t_total < 0: + return 1. + progress = float(step) / self.t_total + ret = self.get_lr_(progress) + # warning for exceeding t_total (only active with warmup_linear + if not nowarn and self.warn_t_total and progress > 1. and progress > self.warned_for_t_total_at_progress: + logger.warning( + "Training beyond specified 't_total'. Learning rate multiplier set to {}. Please set 't_total' of {} correctly." + .format(ret, self.__class__.__name__)) + self.warned_for_t_total_at_progress = progress + # end warning + return ret + + @abc.abstractmethod + def get_lr_(self, progress): + """ + :param progress: value between 0 and 1 (unless going beyond t_total steps) specifying training progress + :return: learning rate multiplier for current update + """ + return 1. + + +class ConstantLR(_LRSchedule): + def get_lr_(self, progress): + return 1. + + +class WarmupCosineSchedule(_LRSchedule): + """ + Linearly increases learning rate from 0 to 1 over `warmup` fraction of training steps. + Decreases learning rate from 1. to 0. over remaining `1 - warmup` steps following a cosine curve. + If `cycles` (default=0.5) is different from default, learning rate follows cosine function after warmup. + """ + warn_t_total = True + def __init__(self, warmup=0.002, t_total=-1, cycles=.5, **kw): + """ + :param warmup: see LRSchedule + :param t_total: see LRSchedule + :param cycles: number of cycles. Default: 0.5, corresponding to cosine decay from 1. at progress==warmup and 0 at progress==1. + :param kw: + """ + super(WarmupCosineSchedule, self).__init__(warmup=warmup, t_total=t_total, **kw) + self.cycles = cycles + + def get_lr_(self, progress): + if progress < self.warmup: + return progress / self.warmup + else: + progress = (progress - self.warmup) / (1 - self.warmup) # progress after warmup + return 0.5 * (1. + math.cos(math.pi * self.cycles * 2 * progress)) + + +class WarmupCosineWithHardRestartsSchedule(WarmupCosineSchedule): + """ + Linearly increases learning rate from 0 to 1 over `warmup` fraction of training steps. + If `cycles` (default=1.) is different from default, learning rate follows `cycles` times a cosine decaying + learning rate (with hard restarts). + """ + def __init__(self, warmup=0.002, t_total=-1, cycles=1., **kw): + super(WarmupCosineWithHardRestartsSchedule, self).__init__(warmup=warmup, t_total=t_total, cycles=cycles, **kw) + assert(cycles >= 1.) + + def get_lr_(self, progress): + if progress < self.warmup: + return progress / self.warmup + else: + progress = (progress - self.warmup) / (1 - self.warmup) # progress after warmup + ret = 0.5 * (1. + math.cos(math.pi * ((self.cycles * progress) % 1))) + return ret + + +class WarmupCosineWithWarmupRestartsSchedule(WarmupCosineWithHardRestartsSchedule): + """ + All training progress is divided in `cycles` (default=1.) parts of equal length. + Every part follows a schedule with the first `warmup` fraction of the training steps linearly increasing from 0. to 1., + followed by a learning rate decreasing from 1. to 0. following a cosine curve. + """ + def __init__(self, warmup=0.002, t_total=-1, cycles=1., **kw): + assert(warmup * cycles < 1.) + warmup = warmup * cycles if warmup >= 0 else warmup + super(WarmupCosineWithWarmupRestartsSchedule, self).__init__(warmup=warmup, t_total=t_total, cycles=cycles, **kw) + + def get_lr_(self, progress): + progress = progress * self.cycles % 1. + if progress < self.warmup: + return progress / self.warmup + else: + progress = (progress - self.warmup) / (1 - self.warmup) # progress after warmup + ret = 0.5 * (1. + math.cos(math.pi * progress)) + return ret + + +class WarmupConstantSchedule(_LRSchedule): + """ + Linearly increases learning rate from 0 to 1 over `warmup` fraction of training steps. + Keeps learning rate equal to 1. after warmup. + """ + def get_lr_(self, progress): + if progress < self.warmup: + return progress / self.warmup + return 1. + + +class WarmupLinearSchedule(_LRSchedule): + """ + Linearly increases learning rate from 0 to 1 over `warmup` fraction of training steps. + Linearly decreases learning rate from 1. to 0. over remaining `1 - warmup` steps. + """ + warn_t_total = True + def get_lr_(self, progress): + if progress < self.warmup: + return progress / self.warmup + return max((progress - 1.) / (self.warmup - 1.), 0.) + + +SCHEDULES = { + None: ConstantLR, + "none": ConstantLR, + "warmup_cosine": WarmupCosineSchedule, + "warmup_constant": WarmupConstantSchedule, + "warmup_linear": WarmupLinearSchedule +} + + +class BertAdam(Optimizer): + """Implements BERT version of Adam algorithm with weight decay fix. + Params: + lr: learning rate + warmup: portion of t_total for the warmup, -1 means no warmup. Default: -1 + t_total: total number of training steps for the learning + rate schedule, -1 means constant learning rate of 1. (no warmup regardless of warmup setting). Default: -1 + schedule: schedule to use for the warmup (see above). + Can be `'warmup_linear'`, `'warmup_constant'`, `'warmup_cosine'`, `'none'`, `None` or a `_LRSchedule` object (see below). + If `None` or `'none'`, learning rate is always kept constant. + Default : `'warmup_linear'` + b1: Adams b1. Default: 0.9 + b2: Adams b2. Default: 0.999 + e: Adams epsilon. Default: 1e-6 + weight_decay: Weight decay. Default: 0.01 + max_grad_norm: Maximum norm for the gradients (-1 means no clipping). Default: 1.0 + """ + def __init__(self, params, lr=required, warmup=-1, t_total=-1, schedule='warmup_linear', + b1=0.9, b2=0.999, e=1e-6, weight_decay=0.01, max_grad_norm=1.0, **kwargs): + if lr is not required and lr < 0.0: + raise ValueError("Invalid learning rate: {} - should be >= 0.0".format(lr)) + if not isinstance(schedule, _LRSchedule) and schedule not in SCHEDULES: + raise ValueError("Invalid schedule parameter: {}".format(schedule)) + if not 0.0 <= b1 < 1.0: + raise ValueError("Invalid b1 parameter: {} - should be in [0.0, 1.0[".format(b1)) + if not 0.0 <= b2 < 1.0: + raise ValueError("Invalid b2 parameter: {} - should be in [0.0, 1.0[".format(b2)) + if not e >= 0.0: + raise ValueError("Invalid epsilon value: {} - should be >= 0.0".format(e)) + # initialize schedule object + if not isinstance(schedule, _LRSchedule): + schedule_type = SCHEDULES[schedule] + schedule = schedule_type(warmup=warmup, t_total=t_total) + else: + if warmup != -1 or t_total != -1: + logger.warning("warmup and t_total on the optimizer are ineffective when _LRSchedule object is provided as schedule. " + "Please specify custom warmup and t_total in _LRSchedule object.") + defaults = dict(lr=lr, schedule=schedule, + b1=b1, b2=b2, e=e, weight_decay=weight_decay, + max_grad_norm=max_grad_norm) + super(BertAdam, self).__init__(params, defaults) + + def get_lr(self): + lr = [] + for group in self.param_groups: + for p in group['params']: + state = self.state[p] + if len(state) == 0: + return [0] + lr_scheduled = group['lr'] + lr_scheduled *= group['schedule'].get_lr(state['step']) + lr.append(lr_scheduled) + return lr + + def step(self, closure=None): + """Performs a single optimization step. + + Arguments: + closure (callable, optional): A closure that reevaluates the model + and returns the loss. + """ + loss = None + if closure is not None: + loss = closure() + + for group in self.param_groups: + for p in group['params']: + if p.grad is None: + continue + grad = p.grad.data + if grad.is_sparse: + raise RuntimeError('Adam does not support sparse gradients, please consider SparseAdam instead') + + state = self.state[p] + + # State initialization + if len(state) == 0: + state['step'] = 0 + # Exponential moving average of gradient values + state['next_m'] = torch.zeros_like(p.data) + # Exponential moving average of squared gradient values + state['next_v'] = torch.zeros_like(p.data) + + next_m, next_v = state['next_m'], state['next_v'] + beta1, beta2 = group['b1'], group['b2'] + + # Add grad clipping + if group['max_grad_norm'] > 0: + clip_grad_norm_(p, group['max_grad_norm']) + + # Decay the first and second moment running average coefficient + # In-place operations to update the averages at the same time + next_m.mul_(beta1).add_(1 - beta1, grad) + next_v.mul_(beta2).addcmul_(1 - beta2, grad, grad) + update = next_m / (next_v.sqrt() + group['e']) + + # Just adding the square of the weights to the loss function is *not* + # the correct way of using L2 regularization/weight decay with Adam, + # since that will interact with the m and v parameters in strange ways. + # + # Instead we want to decay the weights in a manner that doesn't interact + # with the m/v parameters. This is equivalent to adding the square + # of the weights to the loss with plain (non-momentum) SGD. + if group['weight_decay'] > 0.0: + update += group['weight_decay'] * p.data + + lr_scheduled = group['lr'] + lr_scheduled *= group['schedule'].get_lr(state['step']) + + update_with_lr = lr_scheduled * update + p.data.add_(-update_with_lr) + + state['step'] += 1 + + # step_size = lr_scheduled * math.sqrt(bias_correction2) / bias_correction1 + # No bias correction + # bias_correction1 = 1 - beta1 ** state['step'] + # bias_correction2 = 1 - beta2 ** state['step'] + + return loss diff --git a/pytorch_pretrained/optimization_openai.py b/pytorch_pretrained/optimization_openai.py new file mode 100644 index 0000000000000000000000000000000000000000..bff4ebe61f462f30c2dd9017caf578733b6f1c9e --- /dev/null +++ b/pytorch_pretrained/optimization_openai.py @@ -0,0 +1,127 @@ +# coding=utf-8 +# Copyright 2018 The Open AI Team Authors and The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""PyTorch optimization for OpenAI GPT model.""" + +import math +import torch +from torch.optim import Optimizer +from torch.optim.optimizer import required +from torch.nn.utils import clip_grad_norm_ +import logging +from .optimization import SCHEDULES, _LRSchedule, WarmupCosineWithWarmupRestartsSchedule, \ + WarmupCosineWithHardRestartsSchedule, WarmupCosineSchedule, WarmupLinearSchedule, WarmupConstantSchedule + +logger = logging.getLogger(__name__) + + +class OpenAIAdam(Optimizer): + """Implements Open AI version of Adam algorithm with weight decay fix. + """ + def __init__(self, params, lr=required, schedule='warmup_linear', warmup=-1, t_total=-1, + b1=0.9, b2=0.999, e=1e-8, weight_decay=0, + vector_l2=False, max_grad_norm=-1, **kwargs): + if lr is not required and lr < 0.0: + raise ValueError("Invalid learning rate: {} - should be >= 0.0".format(lr)) + if not isinstance(schedule, _LRSchedule) and schedule not in SCHEDULES: + raise ValueError("Invalid schedule parameter: {}".format(schedule)) + if not 0.0 <= b1 < 1.0: + raise ValueError("Invalid b1 parameter: {} - should be in [0.0, 1.0[".format(b1)) + if not 0.0 <= b2 < 1.0: + raise ValueError("Invalid b2 parameter: {} - should be in [0.0, 1.0[".format(b2)) + if not e >= 0.0: + raise ValueError("Invalid epsilon value: {} - should be >= 0.0".format(e)) + # initialize schedule object + if not isinstance(schedule, _LRSchedule): + schedule_type = SCHEDULES[schedule] + schedule = schedule_type(warmup=warmup, t_total=t_total) + else: + if warmup != -1 or t_total != -1: + logger.warning("warmup and t_total on the optimizer are ineffective when _LRSchedule object is provided as schedule. " + "Please specify custom warmup and t_total in _LRSchedule object.") + defaults = dict(lr=lr, schedule=schedule, + b1=b1, b2=b2, e=e, weight_decay=weight_decay, vector_l2=vector_l2, + max_grad_norm=max_grad_norm) + super(OpenAIAdam, self).__init__(params, defaults) + + def get_lr(self): + lr = [] + for group in self.param_groups: + for p in group['params']: + state = self.state[p] + if len(state) == 0: + return [0] + lr_scheduled = group['lr'] + lr_scheduled *= group['schedule'].get_lr(state['step']) + lr.append(lr_scheduled) + return lr + + def step(self, closure=None): + """Performs a single optimization step. + + Arguments: + closure (callable, optional): A closure that reevaluates the model + and returns the loss. + """ + loss = None + if closure is not None: + loss = closure() + + for group in self.param_groups: + for p in group['params']: + if p.grad is None: + continue + grad = p.grad.data + if grad.is_sparse: + raise RuntimeError('Adam does not support sparse gradients, please consider SparseAdam instead') + + state = self.state[p] + + # State initialization + if len(state) == 0: + state['step'] = 0 + # Exponential moving average of gradient values + state['exp_avg'] = torch.zeros_like(p.data) + # Exponential moving average of squared gradient values + state['exp_avg_sq'] = torch.zeros_like(p.data) + + exp_avg, exp_avg_sq = state['exp_avg'], state['exp_avg_sq'] + beta1, beta2 = group['b1'], group['b2'] + + state['step'] += 1 + + # Add grad clipping + if group['max_grad_norm'] > 0: + clip_grad_norm_(p, group['max_grad_norm']) + + # Decay the first and second moment running average coefficient + exp_avg.mul_(beta1).add_(1 - beta1, grad) + exp_avg_sq.mul_(beta2).addcmul_(1 - beta2, grad, grad) + denom = exp_avg_sq.sqrt().add_(group['e']) + + bias_correction1 = 1 - beta1 ** state['step'] + bias_correction2 = 1 - beta2 ** state['step'] + + lr_scheduled = group['lr'] + lr_scheduled *= group['schedule'].get_lr(state['step']) + + step_size = lr_scheduled * math.sqrt(bias_correction2) / bias_correction1 + + p.data.addcdiv_(-step_size, exp_avg, denom) + + # Add weight decay at the end (fixed version) + if (len(p.size()) > 1 or group['vector_l2']) and group['weight_decay'] > 0: + p.data.add_(-lr_scheduled * group['weight_decay'], p.data) + + return loss diff --git a/pytorch_pretrained/tokenization.py b/pytorch_pretrained/tokenization.py new file mode 100644 index 0000000000000000000000000000000000000000..3937d6e01189212cfa1f76e8cd694ab3d259f8f6 --- /dev/null +++ b/pytorch_pretrained/tokenization.py @@ -0,0 +1,415 @@ +# coding=utf-8 +# Copyright 2018 The Google AI Language Team Authors and The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Tokenization classes.""" + +from __future__ import absolute_import, division, print_function, unicode_literals + +import collections +import logging +import os +import unicodedata +from io import open + +from .file_utils import cached_path + +logger = logging.getLogger(__name__) + +PRETRAINED_VOCAB_ARCHIVE_MAP = { + 'bert-base-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-uncased-vocab.txt", + 'bert-large-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-large-uncased-vocab.txt", + 'bert-base-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-cased-vocab.txt", + 'bert-large-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-large-cased-vocab.txt", + 'bert-base-multilingual-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-multilingual-uncased-vocab.txt", + 'bert-base-multilingual-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-multilingual-cased-vocab.txt", + 'bert-base-chinese': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-chinese-vocab.txt", +} +PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP = { + 'bert-base-uncased': 512, + 'bert-large-uncased': 512, + 'bert-base-cased': 512, + 'bert-large-cased': 512, + 'bert-base-multilingual-uncased': 512, + 'bert-base-multilingual-cased': 512, + 'bert-base-chinese': 512, +} +VOCAB_NAME = 'vocab.txt' + + +def load_vocab(vocab_file): + """Loads a vocabulary file into a dictionary.""" + vocab = collections.OrderedDict() + index = 0 + with open(vocab_file, "r", encoding="utf-8") as reader: + while True: + token = reader.readline() + if not token: + break + token = token.strip() + vocab[token] = index + index += 1 + return vocab + + +def whitespace_tokenize(text): + """Runs basic whitespace cleaning and splitting on a piece of text.""" + text = text.strip() + if not text: + return [] + tokens = text.split() + return tokens + + +class BertTokenizer(object): + """Runs end-to-end tokenization: punctuation splitting + wordpiece""" + + def __init__(self, vocab_file, do_lower_case=True, max_len=None, do_basic_tokenize=True, + never_split=("[UNK]", "[SEP]", "[PAD]", "[CLS]", "[MASK]")): + """Constructs a BertTokenizer. + + Args: + vocab_file: Path to a one-wordpiece-per-line vocabulary file + do_lower_case: Whether to lower case the input + Only has an effect when do_wordpiece_only=False + do_basic_tokenize: Whether to do basic tokenization before wordpiece. + max_len: An artificial maximum length to truncate tokenized sequences to; + Effective maximum length is always the minimum of this + value (if specified) and the underlying BERT model's + sequence length. + never_split: List of tokens which will never be split during tokenization. + Only has an effect when do_wordpiece_only=False + """ + if not os.path.isfile(vocab_file): + raise ValueError( + "Can't find a vocabulary file at path '{}'. To load the vocabulary from a Google pretrained " + "model use `tokenizer = BertTokenizer.from_pretrained(PRETRAINED_MODEL_NAME)`".format(vocab_file)) + self.vocab = load_vocab(vocab_file) + self.ids_to_tokens = collections.OrderedDict( + [(ids, tok) for tok, ids in self.vocab.items()]) + self.do_basic_tokenize = do_basic_tokenize + if do_basic_tokenize: + self.basic_tokenizer = BasicTokenizer(do_lower_case=do_lower_case, + never_split=never_split) + self.wordpiece_tokenizer = WordpieceTokenizer(vocab=self.vocab) + self.max_len = max_len if max_len is not None else int(1e12) + + def tokenize(self, text): + split_tokens = [] + if self.do_basic_tokenize: + for token in self.basic_tokenizer.tokenize(text): + for sub_token in self.wordpiece_tokenizer.tokenize(token): + split_tokens.append(sub_token) + else: + split_tokens = self.wordpiece_tokenizer.tokenize(text) + return split_tokens + + def convert_tokens_to_ids(self, tokens): + """Converts a sequence of tokens into ids using the vocab.""" + ids = [] + for token in tokens: + ids.append(self.vocab[token]) + if len(ids) > self.max_len: + logger.warning( + "Token indices sequence length is longer than the specified maximum " + " sequence length for this BERT model ({} > {}). Running this" + " sequence through BERT will result in indexing errors".format(len(ids), self.max_len) + ) + return ids + + def convert_ids_to_tokens(self, ids): + """Converts a sequence of ids in wordpiece tokens using the vocab.""" + tokens = [] + for i in ids: + tokens.append(self.ids_to_tokens[i]) + return tokens + + def save_vocabulary(self, vocab_path): + """Save the tokenizer vocabulary to a directory or file.""" + index = 0 + if os.path.isdir(vocab_path): + vocab_file = os.path.join(vocab_path, VOCAB_NAME) + with open(vocab_file, "w", encoding="utf-8") as writer: + for token, token_index in sorted(self.vocab.items(), key=lambda kv: kv[1]): + if index != token_index: + logger.warning("Saving vocabulary to {}: vocabulary indices are not consecutive." + " Please check that the vocabulary is not corrupted!".format(vocab_file)) + index = token_index + writer.write(token + u'\n') + index += 1 + return vocab_file + + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, cache_dir=None, *inputs, **kwargs): + """ + Instantiate a PreTrainedBertModel from a pre-trained model file. + Download and cache the pre-trained model file if needed. + """ + if pretrained_model_name_or_path in PRETRAINED_VOCAB_ARCHIVE_MAP: + vocab_file = PRETRAINED_VOCAB_ARCHIVE_MAP[pretrained_model_name_or_path] + if '-cased' in pretrained_model_name_or_path and kwargs.get('do_lower_case', True): + logger.warning("The pre-trained model you are loading is a cased model but you have not set " + "`do_lower_case` to False. We are setting `do_lower_case=False` for you but " + "you may want to check this behavior.") + kwargs['do_lower_case'] = False + elif '-cased' not in pretrained_model_name_or_path and not kwargs.get('do_lower_case', True): + logger.warning("The pre-trained model you are loading is an uncased model but you have set " + "`do_lower_case` to False. We are setting `do_lower_case=True` for you " + "but you may want to check this behavior.") + kwargs['do_lower_case'] = True + else: + vocab_file = pretrained_model_name_or_path + if os.path.isdir(vocab_file): + vocab_file = os.path.join(vocab_file, VOCAB_NAME) + # redirect to the cache, if necessary + try: + resolved_vocab_file = cached_path(vocab_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find any file " + "associated to this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_VOCAB_ARCHIVE_MAP.keys()), + vocab_file)) + return None + if resolved_vocab_file == vocab_file: + logger.info("loading vocabulary file {}".format(vocab_file)) + else: + logger.info("loading vocabulary file {} from cache at {}".format( + vocab_file, resolved_vocab_file)) + if pretrained_model_name_or_path in PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP: + # if we're using a pretrained model, ensure the tokenizer wont index sequences longer + # than the number of positional embeddings + max_len = PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP[pretrained_model_name_or_path] + kwargs['max_len'] = min(kwargs.get('max_len', int(1e12)), max_len) + # Instantiate tokenizer. + tokenizer = cls(resolved_vocab_file, *inputs, **kwargs) + return tokenizer + + +class BasicTokenizer(object): + """Runs basic tokenization (punctuation splitting, lower casing, etc.).""" + + def __init__(self, + do_lower_case=True, + never_split=("[UNK]", "[SEP]", "[PAD]", "[CLS]", "[MASK]")): + """Constructs a BasicTokenizer. + + Args: + do_lower_case: Whether to lower case the input. + """ + self.do_lower_case = do_lower_case + self.never_split = never_split + + def tokenize(self, text): + """Tokenizes a piece of text.""" + text = self._clean_text(text) + # This was added on November 1st, 2018 for the multilingual and Chinese + # models. This is also applied to the English models now, but it doesn't + # matter since the English models were not trained on any Chinese data + # and generally don't have any Chinese data in them (there are Chinese + # characters in the vocabulary because Wikipedia does have some Chinese + # words in the English Wikipedia.). + text = self._tokenize_chinese_chars(text) + orig_tokens = whitespace_tokenize(text) + split_tokens = [] + for token in orig_tokens: + if self.do_lower_case and token not in self.never_split: + token = token.lower() + token = self._run_strip_accents(token) + split_tokens.extend(self._run_split_on_punc(token)) + + output_tokens = whitespace_tokenize(" ".join(split_tokens)) + return output_tokens + + def _run_strip_accents(self, text): + """Strips accents from a piece of text.""" + text = unicodedata.normalize("NFD", text) + output = [] + for char in text: + cat = unicodedata.category(char) + if cat == "Mn": + continue + output.append(char) + return "".join(output) + + def _run_split_on_punc(self, text): + """Splits punctuation on a piece of text.""" + if text in self.never_split: + return [text] + chars = list(text) + i = 0 + start_new_word = True + output = [] + while i < len(chars): + char = chars[i] + if _is_punctuation(char): + output.append([char]) + start_new_word = True + else: + if start_new_word: + output.append([]) + start_new_word = False + output[-1].append(char) + i += 1 + + return ["".join(x) for x in output] + + def _tokenize_chinese_chars(self, text): + """Adds whitespace around any CJK character.""" + output = [] + for char in text: + cp = ord(char) + if self._is_chinese_char(cp): + output.append(" ") + output.append(char) + output.append(" ") + else: + output.append(char) + return "".join(output) + + def _is_chinese_char(self, cp): + """Checks whether CP is the codepoint of a CJK character.""" + # This defines a "chinese character" as anything in the CJK Unicode block: + # https://en.wikipedia.org/wiki/CJK_Unified_Ideographs_(Unicode_block) + # + # Note that the CJK Unicode block is NOT all Japanese and Korean characters, + # despite its name. The modern Korean Hangul alphabet is a different block, + # as is Japanese Hiragana and Katakana. Those alphabets are used to write + # space-separated words, so they are not treated specially and handled + # like the all of the other languages. + if ((cp >= 0x4E00 and cp <= 0x9FFF) or # + (cp >= 0x3400 and cp <= 0x4DBF) or # + (cp >= 0x20000 and cp <= 0x2A6DF) or # + (cp >= 0x2A700 and cp <= 0x2B73F) or # + (cp >= 0x2B740 and cp <= 0x2B81F) or # + (cp >= 0x2B820 and cp <= 0x2CEAF) or + (cp >= 0xF900 and cp <= 0xFAFF) or # + (cp >= 0x2F800 and cp <= 0x2FA1F)): # + return True + + return False + + def _clean_text(self, text): + """Performs invalid character removal and whitespace cleanup on text.""" + output = [] + for char in text: + cp = ord(char) + if cp == 0 or cp == 0xfffd or _is_control(char): + continue + if _is_whitespace(char): + output.append(" ") + else: + output.append(char) + return "".join(output) + + +class WordpieceTokenizer(object): + """Runs WordPiece tokenization.""" + + def __init__(self, vocab, unk_token="[UNK]", max_input_chars_per_word=100): + self.vocab = vocab + self.unk_token = unk_token + self.max_input_chars_per_word = max_input_chars_per_word + + def tokenize(self, text): + """Tokenizes a piece of text into its word pieces. + + This uses a greedy longest-match-first algorithm to perform tokenization + using the given vocabulary. + + For example: + input = "unaffable" + output = ["un", "##aff", "##able"] + + Args: + text: A single token or whitespace separated tokens. This should have + already been passed through `BasicTokenizer`. + + Returns: + A list of wordpiece tokens. + """ + + output_tokens = [] + for token in whitespace_tokenize(text): + chars = list(token) + if len(chars) > self.max_input_chars_per_word: + output_tokens.append(self.unk_token) + continue + + is_bad = False + start = 0 + sub_tokens = [] + while start < len(chars): + end = len(chars) + cur_substr = None + while start < end: + substr = "".join(chars[start:end]) + if start > 0: + substr = "##" + substr + if substr in self.vocab: + cur_substr = substr + break + end -= 1 + if cur_substr is None: + is_bad = True + break + sub_tokens.append(cur_substr) + start = end + + if is_bad: + output_tokens.append(self.unk_token) + else: + output_tokens.extend(sub_tokens) + return output_tokens + + +def _is_whitespace(char): + """Checks whether `chars` is a whitespace character.""" + # \t, \n, and \r are technically contorl characters but we treat them + # as whitespace since they are generally considered as such. + if char == " " or char == "\t" or char == "\n" or char == "\r": + return True + cat = unicodedata.category(char) + if cat == "Zs": + return True + return False + + +def _is_control(char): + """Checks whether `chars` is a control character.""" + # These are technically control characters but we count them as whitespace + # characters. + if char == "\t" or char == "\n" or char == "\r": + return False + cat = unicodedata.category(char) + if cat.startswith("C"): + return True + return False + + +def _is_punctuation(char): + """Checks whether `chars` is a punctuation character.""" + cp = ord(char) + # We treat all non-letter/number ASCII as punctuation. + # Characters such as "^", "$", and "`" are not in the Unicode + # Punctuation class but we treat them as punctuation anyways, for + # consistency. + if ((cp >= 33 and cp <= 47) or (cp >= 58 and cp <= 64) or + (cp >= 91 and cp <= 96) or (cp >= 123 and cp <= 126)): + return True + cat = unicodedata.category(char) + if cat.startswith("P"): + return True + return False diff --git a/pytorch_pretrained/tokenization_gpt2.py b/pytorch_pretrained/tokenization_gpt2.py new file mode 100644 index 0000000000000000000000000000000000000000..07777292a3fa507346552278a89ee33f5af025aa --- /dev/null +++ b/pytorch_pretrained/tokenization_gpt2.py @@ -0,0 +1,301 @@ +# coding=utf-8 +# Copyright 2018 The Open AI Team Authors and The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Tokenization classes for OpenAI GPT.""" +from __future__ import (absolute_import, division, print_function, + unicode_literals) + +import sys +import json +import logging +import os +import regex as re +from io import open + +try: + from functools import lru_cache +except ImportError: + # Just a dummy decorator to get the checks to run on python2 + # because honestly I don't want to support a byte-level unicode BPE tokenizer on python 2 right now. + def lru_cache(): + return lambda func: func + +from .file_utils import cached_path + +logger = logging.getLogger(__name__) + +PRETRAINED_VOCAB_ARCHIVE_MAP = { + 'gpt2': "https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-vocab.json", +} +PRETRAINED_MERGES_ARCHIVE_MAP = { + 'gpt2': "https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-merges.txt", +} +PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP = { + 'gpt2': 1024, +} +VOCAB_NAME = 'vocab.json' +MERGES_NAME = 'merges.txt' +SPECIAL_TOKENS_NAME = 'special_tokens.txt' + +@lru_cache() +def bytes_to_unicode(): + """ + Returns list of utf-8 byte and a corresponding list of unicode strings. + The reversible bpe codes work on unicode strings. + This means you need a large # of unicode characters in your vocab if you want to avoid UNKs. + When you're at something like a 10B token dataset you end up needing around 5K for decent coverage. + This is a signficant percentage of your normal, say, 32K bpe vocab. + To avoid that, we want lookup tables between utf-8 bytes and unicode strings. + And avoids mapping to whitespace/control characters the bpe code barfs on. + """ + _chr = unichr if sys.version_info[0] == 2 else chr + bs = list(range(ord("!"), ord("~")+1))+list(range(ord("¡"), ord("¬")+1))+list(range(ord("®"), ord("ÿ")+1)) + cs = bs[:] + n = 0 + for b in range(2**8): + if b not in bs: + bs.append(b) + cs.append(2**8+n) + n += 1 + cs = [_chr(n) for n in cs] + return dict(zip(bs, cs)) + +def get_pairs(word): + """Return set of symbol pairs in a word. + + Word is represented as tuple of symbols (symbols being variable-length strings). + """ + pairs = set() + prev_char = word[0] + for char in word[1:]: + pairs.add((prev_char, char)) + prev_char = char + return pairs + +class GPT2Tokenizer(object): + """ + GPT-2 BPE tokenizer. Peculiarities: + - Byte-level BPE + """ + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, cache_dir=None, *inputs, **kwargs): + """ + Instantiate a PreTrainedBertModel from a pre-trained model file. + Download and cache the pre-trained model file if needed. + """ + if pretrained_model_name_or_path in PRETRAINED_VOCAB_ARCHIVE_MAP: + vocab_file = PRETRAINED_VOCAB_ARCHIVE_MAP[pretrained_model_name_or_path] + merges_file = PRETRAINED_MERGES_ARCHIVE_MAP[pretrained_model_name_or_path] + special_tokens_file = None + else: + vocab_file = os.path.join(pretrained_model_name_or_path, VOCAB_NAME) + merges_file = os.path.join(pretrained_model_name_or_path, MERGES_NAME) + special_tokens_file = os.path.join(pretrained_model_name_or_path, SPECIAL_TOKENS_NAME) + if not os.path.exists(special_tokens_file): + special_tokens_file = None + else: + logger.info("loading special tokens file {}".format(special_tokens_file)) + # redirect to the cache, if necessary + try: + resolved_vocab_file = cached_path(vocab_file, cache_dir=cache_dir) + resolved_merges_file = cached_path(merges_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} and {} " + "at this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_VOCAB_ARCHIVE_MAP.keys()), + pretrained_model_name_or_path, + vocab_file, merges_file)) + return None + if resolved_vocab_file == vocab_file and resolved_merges_file == merges_file: + logger.info("loading vocabulary file {}".format(vocab_file)) + logger.info("loading merges file {}".format(merges_file)) + else: + logger.info("loading vocabulary file {} from cache at {}".format( + vocab_file, resolved_vocab_file)) + logger.info("loading merges file {} from cache at {}".format( + merges_file, resolved_merges_file)) + if pretrained_model_name_or_path in PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP: + # if we're using a pretrained model, ensure the tokenizer wont index sequences longer + # than the number of positional embeddings + max_len = PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP[pretrained_model_name_or_path] + kwargs['max_len'] = min(kwargs.get('max_len', int(1e12)), max_len) + # Instantiate tokenizer. + if special_tokens_file and 'special_tokens' not in kwargs: + special_tokens = open(special_tokens_file, encoding='utf-8').read().split('\n')[:-1] + else: + special_tokens = kwargs.pop('special_tokens', []) + tokenizer = cls(resolved_vocab_file, resolved_merges_file, special_tokens=special_tokens, *inputs, **kwargs) + return tokenizer + + def __init__(self, vocab_file, merges_file, errors='replace', special_tokens=None, max_len=None): + self.max_len = max_len if max_len is not None else int(1e12) + self.encoder = json.load(open(vocab_file)) + self.decoder = {v:k for k,v in self.encoder.items()} + self.errors = errors # how to handle errors in decoding + self.byte_encoder = bytes_to_unicode() + self.byte_decoder = {v:k for k, v in self.byte_encoder.items()} + bpe_data = open(merges_file, encoding='utf-8').read().split('\n')[1:-1] + bpe_merges = [tuple(merge.split()) for merge in bpe_data] + self.bpe_ranks = dict(zip(bpe_merges, range(len(bpe_merges)))) + self.cache = {} + + # Should haved added re.IGNORECASE so BPE merges can happen for capitalized versions of contractions + self.pat = re.compile(r"""'s|'t|'re|'ve|'m|'ll|'d| ?\p{L}+| ?\p{N}+| ?[^\s\p{L}\p{N}]+|\s+(?!\S)|\s+""") + + self.special_tokens = {} + self.special_tokens_decoder = {} + self.set_special_tokens(special_tokens) + + def __len__(self): + return len(self.encoder) + len(self.special_tokens) + + def set_special_tokens(self, special_tokens): + """ Add a list of additional tokens to the encoder. + The additional tokens are indexed starting from the last index of the + current vocabulary in the order of the `special_tokens` list. + """ + if not special_tokens: + self.special_tokens = {} + self.special_tokens_decoder = {} + return + self.special_tokens = dict((tok, len(self.encoder) + i) for i, tok in enumerate(special_tokens)) + self.special_tokens_decoder = {v:k for k, v in self.special_tokens.items()} + logger.info("Special tokens {}".format(self.special_tokens)) + + def bpe(self, token): + if token in self.cache: + return self.cache[token] + word = tuple(token) + pairs = get_pairs(word) + + if not pairs: + return token + + while True: + bigram = min(pairs, key = lambda pair: self.bpe_ranks.get(pair, float('inf'))) + if bigram not in self.bpe_ranks: + break + first, second = bigram + new_word = [] + i = 0 + while i < len(word): + try: + j = word.index(first, i) + new_word.extend(word[i:j]) + i = j + except: + new_word.extend(word[i:]) + break + + if word[i] == first and i < len(word)-1 and word[i+1] == second: + new_word.append(first+second) + i += 2 + else: + new_word.append(word[i]) + i += 1 + new_word = tuple(new_word) + word = new_word + if len(word) == 1: + break + else: + pairs = get_pairs(word) + word = ' '.join(word) + self.cache[token] = word + return word + + def tokenize(self, text): + """ Tokenize a string. """ + bpe_tokens = [] + for token in re.findall(self.pat, text): + token = ''.join(self.byte_encoder[ord(b)] for b in token) + bpe_tokens.extend(bpe_token for bpe_token in self.bpe(token).split(' ')) + return bpe_tokens + + def convert_tokens_to_ids(self, tokens): + """ Converts a sequence of tokens into ids using the vocab. """ + ids = [] + if isinstance(tokens, str) or (sys.version_info[0] == 2 and isinstance(tokens, unicode)): + if tokens in self.special_tokens: + return self.special_tokens[tokens] + else: + return self.encoder.get(tokens, 0) + for token in tokens: + if token in self.special_tokens: + ids.append(self.special_tokens[token]) + else: + ids.append(self.encoder.get(token, 0)) + if len(ids) > self.max_len: + logger.warning( + "Token indices sequence length is longer than the specified maximum " + " sequence length for this OpenAI GPT model ({} > {}). Running this" + " sequence through the model will result in indexing errors".format(len(ids), self.max_len) + ) + return ids + + def convert_ids_to_tokens(self, ids, skip_special_tokens=False): + """Converts a sequence of ids in BPE tokens using the vocab.""" + tokens = [] + for i in ids: + if i in self.special_tokens_decoder: + if not skip_special_tokens: + tokens.append(self.special_tokens_decoder[i]) + else: + tokens.append(self.decoder[i]) + return tokens + + def encode(self, text): + return self.convert_tokens_to_ids(self.tokenize(text)) + + def decode(self, tokens): + text = ''.join([self.decoder[token] for token in tokens]) + text = bytearray([self.byte_decoder[c] for c in text]).decode('utf-8', errors=self.errors) + return text + + def save_vocabulary(self, vocab_path): + """Save the tokenizer vocabulary and merge files to a directory.""" + if not os.path.isdir(vocab_path): + logger.error("Vocabulary path ({}) should be a directory".format(vocab_path)) + return + vocab_file = os.path.join(vocab_path, VOCAB_NAME) + merge_file = os.path.join(vocab_path, MERGES_NAME) + special_tokens_file = os.path.join(vocab_path, SPECIAL_TOKENS_NAME) + + with open(vocab_file, 'w', encoding='utf-8') as f: + f.write(json.dumps(self.encoder, ensure_ascii=False)) + + index = 0 + with open(merge_file, "w", encoding="utf-8") as writer: + writer.write(u'#version: 0.2\n') + for bpe_tokens, token_index in sorted(self.bpe_ranks.items(), key=lambda kv: kv[1]): + if index != token_index: + logger.warning("Saving vocabulary to {}: BPE merge indices are not consecutive." + " Please check that the tokenizer is not corrupted!".format(merge_file)) + index = token_index + writer.write(' '.join(bpe_tokens) + u'\n') + index += 1 + + index = len(self.encoder) + with open(special_tokens_file, 'w', encoding='utf-8') as writer: + for token, token_index in sorted(self.special_tokens.items(), key=lambda kv: kv[1]): + if index != token_index: + logger.warning("Saving special tokens vocabulary to {}: BPE indices are not consecutive." + " Please check that the tokenizer is not corrupted!".format(special_tokens_file)) + index = token_index + writer.write(token + u'\n') + index += 1 + + return vocab_file, merge_file, special_tokens_file diff --git a/pytorch_pretrained/tokenization_openai.py b/pytorch_pretrained/tokenization_openai.py new file mode 100644 index 0000000000000000000000000000000000000000..214a476ce9604aeb787003d392598aae0ce3821d --- /dev/null +++ b/pytorch_pretrained/tokenization_openai.py @@ -0,0 +1,313 @@ +# coding=utf-8 +# Copyright 2018 The Open AI Team Authors and The HuggingFace Inc. team. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +"""Tokenization classes for OpenAI GPT.""" +from __future__ import (absolute_import, division, print_function, + unicode_literals) + +import json +import logging +import os +import re +import sys +from io import open + +from tqdm import tqdm + +from .file_utils import cached_path +from .tokenization import BasicTokenizer + +logger = logging.getLogger(__name__) + +PRETRAINED_VOCAB_ARCHIVE_MAP = { + 'openai-gpt': "https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-vocab.json", +} +PRETRAINED_MERGES_ARCHIVE_MAP = { + 'openai-gpt': "https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-merges.txt", +} +PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP = { + 'openai-gpt': 512, +} +VOCAB_NAME = 'vocab.json' +MERGES_NAME = 'merges.txt' +SPECIAL_TOKENS_NAME = 'special_tokens.txt' + +def get_pairs(word): + """ + Return set of symbol pairs in a word. + word is represented as tuple of symbols (symbols being variable-length strings) + """ + pairs = set() + prev_char = word[0] + for char in word[1:]: + pairs.add((prev_char, char)) + prev_char = char + return pairs + +def text_standardize(text): + """ + fixes some issues the spacy tokenizer had on books corpus + also does some whitespace standardization + """ + text = text.replace('—', '-') + text = text.replace('–', '-') + text = text.replace('―', '-') + text = text.replace('…', '...') + text = text.replace('´', "'") + text = re.sub(r'''(-+|~+|!+|"+|;+|\?+|\++|,+|\)+|\(+|\\+|\/+|\*+|\[+|\]+|}+|{+|\|+|_+)''', r' \1 ', text) + text = re.sub(r'\s*\n\s*', ' \n ', text) + text = re.sub(r'[^\S\n]+', ' ', text) + return text.strip() + +class OpenAIGPTTokenizer(object): + """ + BPE tokenizer. Peculiarities: + - lower case all inputs + - uses SpaCy tokenizer and ftfy for pre-BPE tokenization if they are installed, fallback to BERT's BasicTokenizer if not. + - argument special_tokens and function set_special_tokens: + can be used to add additional symbols (ex: "__classify__") to a vocabulary. + """ + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, cache_dir=None, *inputs, **kwargs): + """ + Instantiate a PreTrainedBertModel from a pre-trained model file. + Download and cache the pre-trained model file if needed. + """ + if pretrained_model_name_or_path in PRETRAINED_VOCAB_ARCHIVE_MAP: + vocab_file = PRETRAINED_VOCAB_ARCHIVE_MAP[pretrained_model_name_or_path] + merges_file = PRETRAINED_MERGES_ARCHIVE_MAP[pretrained_model_name_or_path] + special_tokens_file = None + else: + vocab_file = os.path.join(pretrained_model_name_or_path, VOCAB_NAME) + merges_file = os.path.join(pretrained_model_name_or_path, MERGES_NAME) + special_tokens_file = os.path.join(pretrained_model_name_or_path, SPECIAL_TOKENS_NAME) + if not os.path.exists(special_tokens_file): + special_tokens_file = None + else: + logger.info("loading special tokens file {}".format(special_tokens_file)) + # redirect to the cache, if necessary + try: + resolved_vocab_file = cached_path(vocab_file, cache_dir=cache_dir) + resolved_merges_file = cached_path(merges_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} and {} " + "at this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_VOCAB_ARCHIVE_MAP.keys()), + pretrained_model_name_or_path, + vocab_file, merges_file)) + return None + if resolved_vocab_file == vocab_file and resolved_merges_file == merges_file: + logger.info("loading vocabulary file {}".format(vocab_file)) + logger.info("loading merges file {}".format(merges_file)) + else: + logger.info("loading vocabulary file {} from cache at {}".format( + vocab_file, resolved_vocab_file)) + logger.info("loading merges file {} from cache at {}".format( + merges_file, resolved_merges_file)) + if pretrained_model_name_or_path in PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP: + # if we're using a pretrained model, ensure the tokenizer wont index sequences longer + # than the number of positional embeddings + max_len = PRETRAINED_VOCAB_POSITIONAL_EMBEDDINGS_SIZE_MAP[pretrained_model_name_or_path] + kwargs['max_len'] = min(kwargs.get('max_len', int(1e12)), max_len) + # Instantiate tokenizer. + if special_tokens_file and 'special_tokens' not in kwargs: + special_tokens = open(special_tokens_file, encoding='utf-8').read().split('\n')[:-1] + else: + special_tokens = kwargs.pop('special_tokens', []) + tokenizer = cls(resolved_vocab_file, resolved_merges_file, special_tokens=special_tokens, *inputs, **kwargs) + return tokenizer + + def __init__(self, vocab_file, merges_file, special_tokens=None, max_len=None): + try: + import ftfy + import spacy + self.nlp = spacy.load('en', disable=['parser', 'tagger', 'ner', 'textcat']) + self.fix_text = ftfy.fix_text + except ImportError: + logger.warning("ftfy or spacy is not installed using BERT BasicTokenizer instead of SpaCy & ftfy.") + self.nlp = BasicTokenizer(do_lower_case=True, + never_split=special_tokens if special_tokens is not None else []) + self.fix_text = None + + self.max_len = max_len if max_len is not None else int(1e12) + self.encoder = json.load(open(vocab_file, encoding="utf-8")) + self.decoder = {v:k for k,v in self.encoder.items()} + merges = open(merges_file, encoding='utf-8').read().split('\n')[1:-1] + merges = [tuple(merge.split()) for merge in merges] + self.bpe_ranks = dict(zip(merges, range(len(merges)))) + self.cache = {} + self.special_tokens = {} + self.special_tokens_decoder = {} + self.set_special_tokens(special_tokens) + + def __len__(self): + return len(self.encoder) + len(self.special_tokens) + + def set_special_tokens(self, special_tokens): + """ Add a list of additional tokens to the encoder. + The additional tokens are indexed starting from the last index of the + current vocabulary in the order of the `special_tokens` list. + """ + if not special_tokens: + self.special_tokens = {} + self.special_tokens_decoder = {} + return + self.special_tokens = dict((tok, len(self.encoder) + i) for i, tok in enumerate(special_tokens)) + self.special_tokens_decoder = {v:k for k, v in self.special_tokens.items()} + if self.fix_text is None: + # Using BERT's BasicTokenizer: we can update the tokenizer + self.nlp.never_split = special_tokens + logger.info("Special tokens {}".format(self.special_tokens)) + + def bpe(self, token): + word = tuple(token[:-1]) + (token[-1] + '',) + if token in self.cache: + return self.cache[token] + pairs = get_pairs(word) + + if not pairs: + return token+'' + + while True: + bigram = min(pairs, key=lambda pair: self.bpe_ranks.get(pair, float('inf'))) + if bigram not in self.bpe_ranks: + break + first, second = bigram + new_word = [] + i = 0 + while i < len(word): + try: + j = word.index(first, i) + new_word.extend(word[i:j]) + i = j + except: + new_word.extend(word[i:]) + break + + if word[i] == first and i < len(word)-1 and word[i+1] == second: + new_word.append(first+second) + i += 2 + else: + new_word.append(word[i]) + i += 1 + new_word = tuple(new_word) + word = new_word + if len(word) == 1: + break + else: + pairs = get_pairs(word) + word = ' '.join(word) + if word == '\n ': + word = '\n' + self.cache[token] = word + return word + + def tokenize(self, text): + """ Tokenize a string. """ + split_tokens = [] + if self.fix_text is None: + # Using BERT's BasicTokenizer + text = self.nlp.tokenize(text) + for token in text: + split_tokens.extend([t for t in self.bpe(token).split(' ')]) + else: + # Using SpaCy & ftfy (original tokenization process of OpenAI GPT) + text = self.nlp(text_standardize(self.fix_text(text))) + for token in text: + split_tokens.extend([t for t in self.bpe(token.text.lower()).split(' ')]) + return split_tokens + + def convert_tokens_to_ids(self, tokens): + """ Converts a sequence of tokens into ids using the vocab. """ + ids = [] + if isinstance(tokens, str) or (sys.version_info[0] == 2 and isinstance(tokens, unicode)): + if tokens in self.special_tokens: + return self.special_tokens[tokens] + else: + return self.encoder.get(tokens, 0) + for token in tokens: + if token in self.special_tokens: + ids.append(self.special_tokens[token]) + else: + ids.append(self.encoder.get(token, 0)) + if len(ids) > self.max_len: + logger.warning( + "Token indices sequence length is longer than the specified maximum " + " sequence length for this OpenAI GPT model ({} > {}). Running this" + " sequence through the model will result in indexing errors".format(len(ids), self.max_len) + ) + return ids + + def convert_ids_to_tokens(self, ids, skip_special_tokens=False): + """Converts a sequence of ids in BPE tokens using the vocab.""" + tokens = [] + for i in ids: + if i in self.special_tokens_decoder: + if not skip_special_tokens: + tokens.append(self.special_tokens_decoder[i]) + else: + tokens.append(self.decoder[i]) + return tokens + + def encode(self, text): + return self.convert_tokens_to_ids(self.tokenize(text)) + + def decode(self, ids, skip_special_tokens=False, clean_up_tokenization_spaces=True): + """Converts a sequence of ids in a string.""" + tokens = self.convert_ids_to_tokens(ids, skip_special_tokens=skip_special_tokens) + out_string = ''.join(tokens).replace('', ' ').strip() + if clean_up_tokenization_spaces: + out_string = out_string.replace('', '') + out_string = out_string.replace(' .', '.').replace(' ?', '?').replace(' !', '!').replace(' ,', ',').replace(' ,', ',' + ).replace(" ' ", "'").replace(" n't", "n't").replace(" 'm", "'m").replace(" do not", " don't" + ).replace(" 's", "'s").replace(" 've", "'ve").replace(" 're", "'re") + return out_string + + def save_vocabulary(self, vocab_path): + """Save the tokenizer vocabulary and merge files to a directory.""" + if not os.path.isdir(vocab_path): + logger.error("Vocabulary path ({}) should be a directory".format(vocab_path)) + return + vocab_file = os.path.join(vocab_path, VOCAB_NAME) + merge_file = os.path.join(vocab_path, MERGES_NAME) + special_tokens_file = os.path.join(vocab_path, SPECIAL_TOKENS_NAME) + + with open(vocab_file, 'w', encoding='utf-8') as f: + f.write(json.dumps(self.encoder, ensure_ascii=False)) + + index = 0 + with open(merge_file, "w", encoding="utf-8") as writer: + writer.write(u'#version: 0.2\n') + for bpe_tokens, token_index in sorted(self.bpe_ranks.items(), key=lambda kv: kv[1]): + if index != token_index: + logger.warning("Saving vocabulary to {}: BPE merge indices are not consecutive." + " Please check that the tokenizer is not corrupted!".format(merge_file)) + index = token_index + writer.write(' '.join(bpe_tokens) + u'\n') + index += 1 + + index = len(self.encoder) + with open(special_tokens_file, 'w', encoding='utf-8') as writer: + for token, token_index in sorted(self.special_tokens.items(), key=lambda kv: kv[1]): + if index != token_index: + logger.warning("Saving special tokens vocabulary to {}: BPE indices are not consecutive." + " Please check that the tokenizer is not corrupted!".format(special_tokens_file)) + index = token_index + writer.write(token + u'\n') + index += 1 + + return vocab_file, merge_file, special_tokens_file diff --git a/pytorch_pretrained/tokenization_transfo_xl.py b/pytorch_pretrained/tokenization_transfo_xl.py new file mode 100644 index 0000000000000000000000000000000000000000..ddebc57c1068e6f6f2dce6bafc0c2f4f6d330865 --- /dev/null +++ b/pytorch_pretrained/tokenization_transfo_xl.py @@ -0,0 +1,586 @@ +# coding=utf-8 +# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team. +# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved. +# +# Licensed under the Apache License, Version 2.0 (the "License"); +# you may not use this file except in compliance with the License. +# You may obtain a copy of the License at +# +# http://www.apache.org/licenses/LICENSE-2.0 +# +# Unless required by applicable law or agreed to in writing, software +# distributed under the License is distributed on an "AS IS" BASIS, +# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. +# See the License for the specific language governing permissions and +# limitations under the License. +""" Tokenization classes for Transformer XL model. + Adapted from https://github.com/kimiyoung/transformer-xl. +""" +from __future__ import (absolute_import, division, print_function, + unicode_literals) + +import glob +import logging +import os +import sys +from collections import Counter, OrderedDict +from io import open +import unicodedata + +import torch +import numpy as np + +from .file_utils import cached_path + +if sys.version_info[0] == 2: + import cPickle as pickle +else: + import pickle + + +logger = logging.getLogger(__name__) + +PRETRAINED_VOCAB_ARCHIVE_MAP = { + 'transfo-xl-wt103': "https://s3.amazonaws.com/models.huggingface.co/bert/transfo-xl-wt103-vocab.bin", +} +VOCAB_NAME = 'vocab.bin' + +PRETRAINED_CORPUS_ARCHIVE_MAP = { + 'transfo-xl-wt103': "https://s3.amazonaws.com/models.huggingface.co/bert/transfo-xl-wt103-corpus.bin", +} +CORPUS_NAME = 'corpus.bin' + +class TransfoXLTokenizer(object): + """ + Transformer-XL tokenizer adapted from Vocab class in https://github.com/kimiyoung/transformer-xl + """ + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, cache_dir=None, *inputs, **kwargs): + """ + Instantiate a TransfoXLTokenizer. + The TransfoXLTokenizer. + """ + if pretrained_model_name_or_path in PRETRAINED_VOCAB_ARCHIVE_MAP: + vocab_file = PRETRAINED_VOCAB_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + if os.path.isdir(pretrained_model_name_or_path): + vocab_file = os.path.join(pretrained_model_name_or_path, VOCAB_NAME) + else: + vocab_file = pretrained_model_name_or_path + # redirect to the cache, if necessary + try: + resolved_vocab_file = cached_path(vocab_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Model name '{}' was not found in model name list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} " + "at this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_VOCAB_ARCHIVE_MAP.keys()), + pretrained_model_name_or_path, + vocab_file)) + return None + if resolved_vocab_file == vocab_file: + logger.info("loading vocabulary file {}".format(vocab_file)) + else: + logger.info("loading vocabulary file {} from cache at {}".format( + vocab_file, resolved_vocab_file)) + + # Instantiate tokenizer. + tokenizer = cls(*inputs, **kwargs) + vocab_dict = torch.load(resolved_vocab_file) + for key, value in vocab_dict.items(): + tokenizer.__dict__[key] = value + return tokenizer + + def __init__(self, special=[], min_freq=0, max_size=None, lower_case=False, + delimiter=None, vocab_file=None, never_split=("", "", "")): + self.counter = Counter() + self.special = special + self.min_freq = min_freq + self.max_size = max_size + self.lower_case = lower_case + self.delimiter = delimiter + self.vocab_file = vocab_file + self.never_split = never_split + + def count_file(self, path, verbose=False, add_eos=False): + if verbose: print('counting file {} ...'.format(path)) + assert os.path.exists(path) + + sents = [] + with open(path, 'r', encoding='utf-8') as f: + for idx, line in enumerate(f): + if verbose and idx > 0 and idx % 500000 == 0: + print(' line {}'.format(idx)) + symbols = self.tokenize(line, add_eos=add_eos) + self.counter.update(symbols) + sents.append(symbols) + + return sents + + def count_sents(self, sents, verbose=False): + """ + sents : a list of sentences, each a list of tokenized symbols + """ + if verbose: print('counting {} sents ...'.format(len(sents))) + for idx, symbols in enumerate(sents): + if verbose and idx > 0 and idx % 500000 == 0: + print(' line {}'.format(idx)) + self.counter.update(symbols) + + def _build_from_file(self, vocab_file): + self.idx2sym = [] + self.sym2idx = OrderedDict() + + with open(vocab_file, 'r', encoding='utf-8') as f: + for line in f: + symb = line.strip().split()[0] + self.add_symbol(symb) + if '' in self.sym2idx: + self.unk_idx = self.sym2idx[''] + elif '' in self.sym2idx: + self.unk_idx = self.sym2idx[''] + else: + raise ValueError('No token in vocabulary') + + def save_vocabulary(self, vocab_path): + """Save the tokenizer vocabulary to a directory or file.""" + index = 0 + if os.path.isdir(vocab_path): + vocab_file = os.path.join(vocab_path, VOCAB_NAME) + torch.save(self.__dict__, vocab_file) + return vocab_file + + def build_vocab(self): + if self.vocab_file: + print('building vocab from {}'.format(self.vocab_file)) + self._build_from_file(self.vocab_file) + print('final vocab size {}'.format(len(self))) + else: + print('building vocab with min_freq={}, max_size={}'.format( + self.min_freq, self.max_size)) + self.idx2sym = [] + self.sym2idx = OrderedDict() + + for sym in self.special: + self.add_special(sym) + + for sym, cnt in self.counter.most_common(self.max_size): + if cnt < self.min_freq: break + self.add_symbol(sym) + + print('final vocab size {} from {} unique tokens'.format( + len(self), len(self.counter))) + + def encode_file(self, path, ordered=False, verbose=False, add_eos=True, + add_double_eos=False): + if verbose: print('encoding file {} ...'.format(path)) + assert os.path.exists(path) + encoded = [] + with open(path, 'r', encoding='utf-8') as f: + for idx, line in enumerate(f): + if verbose and idx > 0 and idx % 500000 == 0: + print(' line {}'.format(idx)) + symbols = self.tokenize(line, add_eos=add_eos, + add_double_eos=add_double_eos) + encoded.append(self.convert_to_tensor(symbols)) + + if ordered: + encoded = torch.cat(encoded) + + return encoded + + def encode_sents(self, sents, ordered=False, verbose=False): + if verbose: print('encoding {} sents ...'.format(len(sents))) + encoded = [] + for idx, symbols in enumerate(sents): + if verbose and idx > 0 and idx % 500000 == 0: + print(' line {}'.format(idx)) + encoded.append(self.convert_to_tensor(symbols)) + + if ordered: + encoded = torch.cat(encoded) + + return encoded + + def add_special(self, sym): + if sym not in self.sym2idx: + self.idx2sym.append(sym) + self.sym2idx[sym] = len(self.idx2sym) - 1 + setattr(self, '{}_idx'.format(sym.strip('<>')), self.sym2idx[sym]) + + def add_symbol(self, sym): + if sym not in self.sym2idx: + self.idx2sym.append(sym) + self.sym2idx[sym] = len(self.idx2sym) - 1 + + def get_sym(self, idx): + assert 0 <= idx < len(self), 'Index {} out of vocabulary range'.format(idx) + return self.idx2sym[idx] + + def get_idx(self, sym): + if sym in self.sym2idx: + return self.sym2idx[sym] + else: + # print('encounter unk {}'.format(sym)) + # assert '' not in sym + if hasattr(self, 'unk_idx'): + return self.sym2idx.get(sym, self.unk_idx) + # Backward compatibility with pre-trained models + elif '' in self.sym2idx: + return self.sym2idx[''] + elif '' in self.sym2idx: + return self.sym2idx[''] + else: + raise ValueError('Token not in vocabulary and no token in vocabulary for replacement') + + def convert_ids_to_tokens(self, indices): + """Converts a sequence of indices in symbols using the vocab.""" + return [self.get_sym(idx) for idx in indices] + + def convert_tokens_to_ids(self, symbols): + """Converts a sequence of symbols into ids using the vocab.""" + return [self.get_idx(sym) for sym in symbols] + + def convert_to_tensor(self, symbols): + return torch.LongTensor(self.convert_tokens_to_ids(symbols)) + + def decode(self, indices, exclude=None): + """Converts a sequence of indices in a string.""" + if exclude is None: + return ' '.join([self.get_sym(idx) for idx in indices]) + else: + return ' '.join([self.get_sym(idx) for idx in indices if idx not in exclude]) + + def __len__(self): + return len(self.idx2sym) + + def tokenize(self, line, add_eos=False, add_double_eos=False): + line = line.strip() + # convert to lower case + if self.lower_case: + line = line.lower() + + # empty delimiter '' will evaluate False + if self.delimiter == '': + symbols = line + else: + symbols = line.split(self.delimiter) + + if add_double_eos: # lm1b + return [''] + symbols + [''] + elif add_eos: + return symbols + [''] + else: + return symbols + + +class LMOrderedIterator(object): + def __init__(self, data, bsz, bptt, device='cpu', ext_len=None): + """ + data -- LongTensor -- the LongTensor is strictly ordered + """ + self.bsz = bsz + self.bptt = bptt + self.ext_len = ext_len if ext_len is not None else 0 + + self.device = device + + # Work out how cleanly we can divide the dataset into bsz parts. + self.n_step = data.size(0) // bsz + + # Trim off any extra elements that wouldn't cleanly fit (remainders). + data = data.narrow(0, 0, self.n_step * bsz) + + # Evenly divide the data across the bsz batches. + self.data = data.view(bsz, -1).t().contiguous().to(device) + + # Number of mini-batches + self.n_batch = (self.n_step + self.bptt - 1) // self.bptt + + def get_batch(self, i, bptt=None): + if bptt is None: bptt = self.bptt + seq_len = min(bptt, self.data.size(0) - 1 - i) + + end_idx = i + seq_len + beg_idx = max(0, i - self.ext_len) + + data = self.data[beg_idx:end_idx] + target = self.data[i+1:i+1+seq_len] + + data_out = data.transpose(0, 1).contiguous().to(self.device) + target_out = target.transpose(0, 1).contiguous().to(self.device) + + return data_out, target_out, seq_len + + def get_fixlen_iter(self, start=0): + for i in range(start, self.data.size(0) - 1, self.bptt): + yield self.get_batch(i) + + def get_varlen_iter(self, start=0, std=5, min_len=5, max_deviation=3): + max_len = self.bptt + max_deviation * std + i = start + while True: + bptt = self.bptt if np.random.random() < 0.95 else self.bptt / 2. + bptt = min(max_len, max(min_len, int(np.random.normal(bptt, std)))) + data, target, seq_len = self.get_batch(i, bptt) + i += seq_len + yield data, target, seq_len + if i >= self.data.size(0) - 2: + break + + def __iter__(self): + return self.get_fixlen_iter() + + +class LMShuffledIterator(object): + def __init__(self, data, bsz, bptt, device='cpu', ext_len=None, shuffle=False): + """ + data -- list[LongTensor] -- there is no order among the LongTensors + """ + self.data = data + + self.bsz = bsz + self.bptt = bptt + self.ext_len = ext_len if ext_len is not None else 0 + + self.device = device + self.shuffle = shuffle + + def get_sent_stream(self): + # index iterator + epoch_indices = np.random.permutation(len(self.data)) if self.shuffle \ + else np.array(range(len(self.data))) + + # sentence iterator + for idx in epoch_indices: + yield self.data[idx] + + def stream_iterator(self, sent_stream): + # streams for each data in the batch + streams = [None] * self.bsz + + data = torch.LongTensor(self.bptt, self.bsz) + target = torch.LongTensor(self.bptt, self.bsz) + + n_retain = 0 + + while True: + # data : [n_retain+bptt x bsz] + # target : [bptt x bsz] + data[n_retain:].fill_(-1) + target.fill_(-1) + + valid_batch = True + + for i in range(self.bsz): + n_filled = 0 + try: + while n_filled < self.bptt: + if streams[i] is None or len(streams[i]) <= 1: + streams[i] = next(sent_stream) + # number of new tokens to fill in + n_new = min(len(streams[i]) - 1, self.bptt - n_filled) + # first n_retain tokens are retained from last batch + data[n_retain+n_filled:n_retain+n_filled+n_new, i] = \ + streams[i][:n_new] + target[n_filled:n_filled+n_new, i] = \ + streams[i][1:n_new+1] + streams[i] = streams[i][n_new:] + n_filled += n_new + except StopIteration: + valid_batch = False + break + + if not valid_batch: + return + + data_out = data.transpose(0, 1).contiguous().to(self.device) + target_out = target.transpose(0, 1).contiguous().to(self.device) + + yield data_out, target_out, self.bptt + + n_retain = min(data.size(0), self.ext_len) + if n_retain > 0: + data[:n_retain] = data[-n_retain:] + data.resize_(n_retain + self.bptt, data.size(1)) + + def __iter__(self): + # sent_stream is an iterator + sent_stream = self.get_sent_stream() + + for batch in self.stream_iterator(sent_stream): + yield batch + + +class LMMultiFileIterator(LMShuffledIterator): + def __init__(self, paths, vocab, bsz, bptt, device='cpu', ext_len=None, + shuffle=False): + + self.paths = paths + self.vocab = vocab + + self.bsz = bsz + self.bptt = bptt + self.ext_len = ext_len if ext_len is not None else 0 + + self.device = device + self.shuffle = shuffle + + def get_sent_stream(self, path): + sents = self.vocab.encode_file(path, add_double_eos=True) + if self.shuffle: + np.random.shuffle(sents) + sent_stream = iter(sents) + + return sent_stream + + def __iter__(self): + if self.shuffle: + np.random.shuffle(self.paths) + + for path in self.paths: + # sent_stream is an iterator + sent_stream = self.get_sent_stream(path) + for batch in self.stream_iterator(sent_stream): + yield batch + + +class TransfoXLCorpus(object): + @classmethod + def from_pretrained(cls, pretrained_model_name_or_path, cache_dir=None, *inputs, **kwargs): + """ + Instantiate a pre-processed corpus. + """ + vocab = TransfoXLTokenizer.from_pretrained(pretrained_model_name_or_path, *inputs, **kwargs) + if pretrained_model_name_or_path in PRETRAINED_CORPUS_ARCHIVE_MAP: + corpus_file = PRETRAINED_CORPUS_ARCHIVE_MAP[pretrained_model_name_or_path] + else: + corpus_file = os.path.join(pretrained_model_name_or_path, CORPUS_NAME) + # redirect to the cache, if necessary + try: + resolved_corpus_file = cached_path(corpus_file, cache_dir=cache_dir) + except EnvironmentError: + logger.error( + "Corpus '{}' was not found in corpus list ({}). " + "We assumed '{}' was a path or url but couldn't find files {} " + "at this path or url.".format( + pretrained_model_name_or_path, + ', '.join(PRETRAINED_VOCAB_ARCHIVE_MAP.keys()), + pretrained_model_name_or_path, + corpus_file)) + return None + if resolved_corpus_file == corpus_file: + logger.info("loading corpus file {}".format(corpus_file)) + else: + logger.info("loading corpus file {} from cache at {}".format( + corpus_file, resolved_corpus_file)) + + # Instantiate tokenizer. + corpus = cls(*inputs, **kwargs) + corpus_dict = torch.load(resolved_corpus_file) + for key, value in corpus_dict.items(): + corpus.__dict__[key] = value + corpus.vocab = vocab + if corpus.train is not None: + corpus.train = torch.tensor(corpus.train, dtype=torch.long) + if corpus.valid is not None: + corpus.valid = torch.tensor(corpus.valid, dtype=torch.long) + if corpus.test is not None: + corpus.test = torch.tensor(corpus.test, dtype=torch.long) + return corpus + + def __init__(self, *args, **kwargs): + self.vocab = TransfoXLTokenizer(*args, **kwargs) + self.dataset = None + self.train = None + self.valid = None + self.test = None + + def build_corpus(self, path, dataset): + self.dataset = dataset + + if self.dataset in ['ptb', 'wt2', 'enwik8', 'text8']: + self.vocab.count_file(os.path.join(path, 'train.txt')) + self.vocab.count_file(os.path.join(path, 'valid.txt')) + self.vocab.count_file(os.path.join(path, 'test.txt')) + elif self.dataset == 'wt103': + self.vocab.count_file(os.path.join(path, 'train.txt')) + elif self.dataset == 'lm1b': + train_path_pattern = os.path.join( + path, '1-billion-word-language-modeling-benchmark-r13output', + 'training-monolingual.tokenized.shuffled', 'news.en-*') + train_paths = glob.glob(train_path_pattern) + # the vocab will load from file when build_vocab() is called + + self.vocab.build_vocab() + + if self.dataset in ['ptb', 'wt2', 'wt103']: + self.train = self.vocab.encode_file( + os.path.join(path, 'train.txt'), ordered=True) + self.valid = self.vocab.encode_file( + os.path.join(path, 'valid.txt'), ordered=True) + self.test = self.vocab.encode_file( + os.path.join(path, 'test.txt'), ordered=True) + elif self.dataset in ['enwik8', 'text8']: + self.train = self.vocab.encode_file( + os.path.join(path, 'train.txt'), ordered=True, add_eos=False) + self.valid = self.vocab.encode_file( + os.path.join(path, 'valid.txt'), ordered=True, add_eos=False) + self.test = self.vocab.encode_file( + os.path.join(path, 'test.txt'), ordered=True, add_eos=False) + elif self.dataset == 'lm1b': + self.train = train_paths + self.valid = self.vocab.encode_file( + os.path.join(path, 'valid.txt'), ordered=False, add_double_eos=True) + self.test = self.vocab.encode_file( + os.path.join(path, 'test.txt'), ordered=False, add_double_eos=True) + + def get_iterator(self, split, *args, **kwargs): + if split == 'train': + if self.dataset in ['ptb', 'wt2', 'wt103', 'enwik8', 'text8']: + data_iter = LMOrderedIterator(self.train, *args, **kwargs) + elif self.dataset == 'lm1b': + kwargs['shuffle'] = True + data_iter = LMMultiFileIterator(self.train, self.vocab, *args, **kwargs) + elif split in ['valid', 'test']: + data = self.valid if split == 'valid' else self.test + if self.dataset in ['ptb', 'wt2', 'wt103', 'enwik8', 'text8']: + data_iter = LMOrderedIterator(data, *args, **kwargs) + elif self.dataset == 'lm1b': + data_iter = LMShuffledIterator(data, *args, **kwargs) + + return data_iter + + +def get_lm_corpus(datadir, dataset): + fn = os.path.join(datadir, 'cache.pt') + fn_pickle = os.path.join(datadir, 'cache.pkl') + if os.path.exists(fn): + print('Loading cached dataset...') + corpus = torch.load(fn_pickle) + elif os.path.exists(fn): + print('Loading cached dataset from pickle...') + with open(fn, "rb") as fp: + corpus = pickle.load(fp) + else: + print('Producing dataset {}...'.format(dataset)) + kwargs = {} + if dataset in ['wt103', 'wt2']: + kwargs['special'] = [''] + kwargs['lower_case'] = False + elif dataset == 'ptb': + kwargs['special'] = [''] + kwargs['lower_case'] = True + elif dataset == 'lm1b': + kwargs['special'] = [] + kwargs['lower_case'] = False + kwargs['vocab_file'] = os.path.join(datadir, '1b_word_vocab.txt') + elif dataset in ['enwik8', 'text8']: + pass + + corpus = TransfoXLCorpus(datadir, dataset, **kwargs) + torch.save(corpus, fn) + + return corpus diff --git a/temp.py b/temp.py new file mode 100644 index 0000000000000000000000000000000000000000..f7e8bbd8526a7f31f93653c034eb00285684e41b --- /dev/null +++ b/temp.py @@ -0,0 +1,452 @@ +import sys +import time + +import numpy as np +import torch +from torch import nn +from torch import optim +import os + +import config +import logging + + +from config import device, label_names, print_every, hidden_size, bert_path, encoder_n_layers, dropout, learning_rate, \ + start_epoch, \ + epochs +from data_gen import SaDataset +from model2 import Bert_CNN_CLS_BiGru2, Bert_gru_totalSentence, Bert_add_aspect, Bert_CNN_BiGru_parms +from models import EncoderRNN, AttentionEncoderRNN, Bert, Bert_GRU, Bert_GRU_Add, Bert_GRU2, Bert_BiGRU, Bert_GRU3, \ + Bert_CNN_Gru, Bert_GRU_attention, Bert_CNN_BiGru, Bert_CNN_CLS_BiGru, Bert_CNN_CLS_BiGru1, Bert_sentence +from models import MyEncoderRNN +from utils import AverageMeter, ExpoAverageMeter, accuracy, Lang, timestamp, adjust_learning_rate, save_checkpoint +from torch.utils.tensorboard import SummaryWriter +from pytorch_pretrained import BertModel, BertTokenizer + + +def train(epoch, train_data, encoder, optimizer): + # Ensure dropout layers are in train mode + encoder.train() # 在训练一个PyTorch模型时,通常需要在每个训练迭代(epoch)开始前调用.train()方法将模型设置为训练模式, + # 以确保模型在训练时按照预期的方式进行计算。在训练迭代结束后,通常需要调用.eval()方法将模型设置为评估模式,以确保模型在评估时按照预期的方式进行计算 + + # 可视化 + # writer = SummaryWriter("logs") + # writer = SummaryWriter() + # writer.add_scalar() + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) # 交叉熵损失函数 + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = ExpoAverageMeter() # loss (per word decoded) + accs = ExpoAverageMeter() # accuracy + + start = time.time() + + # Batches + for i_batch, (input_variable, lengths, target_variable) in enumerate( + train_data): # lengths是句子长度,这里会把短句补长成同一个批次中最长的句子的长度 + # Zero gradients + #print(i_batch, (input_variable, lengths, target_variable), train_data) + optimizer.zero_grad() + # print('train_data',train_data.size()) + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + # print('input_variable.size(): ' + str(input_variable.size())) + # print('lengths.size(): ' + str(lengths.size())) + # print('target_variable.size(): ' + str(target_variable.size())) + print('input_variable', input_variable.size()) + # Forward pass through encoder + outputs = encoder(input_variable, lengths) + # outputs = encoder(input_variable) + + # print('outputs.size(): ' + str(outputs.size())) + + loss = 0 + acc = 0 + # print(outputs[:, :, 2], target_variable[:, 2]) + # _, ind = outputs[:, :, 3].topk(1, 1, True, True) + # targets=target_variable[:, 3] + # print(targets.view(-1, 1)) + # correct = ind.eq(targets.view(-1, 1).expand_as(ind)) + # print(correct) + # correct_total = correct.view(-1).float().sum() + # print(correct_total) + # print(len(label_names)) + # for idx, _ in enumerate(label_names): + # print(idx,(outputs[:, :, idx], target_variable[:, idx])) + # batch_size = target_variable[:, idx].size(0) + # print(100/batch_size) + + # print(outputs[:, :, 2]) + for idx, _ in enumerate(label_names): + # print(idx, (outputs[:, :, idx], target_variable[:, idx])) + loss += criterion(input=outputs[:, :, idx], target=target_variable[:, idx]) / len(label_names) # 问题出在这 + acc += accuracy(scores=outputs[:, :, idx], targets=target_variable[:, idx]) / len( + label_names) # 统计所有标签的loss值,再取一个平均 + # print(loss,acc) + + loss.backward() + + optimizer.step() + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + + +def train_bert(epoch, train_data, encoder, optimizer,optimizer_gru,optimizer_cnn): + # Ensure dropout layers are in train mode + encoder.train() # 在训练一个PyTorch模型时,通常需要在每个训练迭代(epoch)开始前调用.train()方法将模型设置为训练模式, + # 以确保模型在训练时按照预期的方式进行计算。在训练迭代结束后,通常需要调用.eval()方法将模型设置为评估模式,以确保模型在评估时按照预期的方式进行计算 + + # 可视化 + # writer = SummaryWriter("logs") + # writer = SummaryWriter() + # writer.add_scalar() + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) # 交叉熵损失函数 + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = ExpoAverageMeter() # loss (per word decoded) + accs = ExpoAverageMeter() # accuracy + + start = time.time() + + # Batches + for i_batch, (input_variable, lengths, target_variable,mask) in enumerate(train_data): # lengths是句子长度,这里会把短句补长成同一个批次中最长的句子的长度 + # Zero gradients + #print(len(sentences)) + #print("mask",sentences_mask,len(sentences_mask)) + # print(i_batch,data) + #print(i_batch, (input_variable, lengths, target_variable,mask), '(input_variable, target_variable, mask)') + optimizer.zero_grad() + optimizer_gru.zero_grad() + optimizer_cnn.zero_grad() + # print('train_data',train_data.size()) + # Set device options + input_variable = input_variable.to(device) + # lengths=config.pad_size + # lengths = lengths.to(device) + target_variable = target_variable.to(device) + # print('input_variable.size(): ' + str(input_variable.size())) + # print('lengths.size(): ' + str(lengths.size())) + # print('target_variable.size(): ' + str(target_variable.size())) + #print('input_variable', input_variable.size()) + # Forward pass through encoder + # outputs = encoder(input_variable, lengths) + outputs = encoder(input_variable, mask) + + # print('outputs.size(): ' + str(outputs.size())) + + loss = 0 + acc = 0 + # print(outputs[:, :, 2], target_variable[:, 2]) + # _, ind = outputs[:, :, 3].topk(1, 1, True, True) + # targets=target_variable[:, 3] + # print(targets.view(-1, 1)) + # correct = ind.eq(targets.view(-1, 1).expand_as(ind)) + # print(correct) + # correct_total = correct.view(-1).float().sum() + # print(correct_total) + # print(len(label_names)) + # for idx, _ in enumerate(label_names): + # print(idx,(outputs[:, :, idx], target_variable[:, idx])) + # batch_size = target_variable[:, idx].size(0) + # print(100/batch_size) + + # print(outputs[:, :, 2]) + #统计当前标签的准确率,遍历整个标签列表 + for idx, _ in enumerate(label_names): + # print(idx, (outputs[:, :, idx], target_variable[:, idx])) + loss += criterion(input=outputs[:, :, idx], target=target_variable[:, idx]) / len(label_names) # 问题出在这 + acc += accuracy(scores=outputs[:, :, idx], targets=target_variable[:, idx]) / len(label_names) # 统计所有标签的loss值,再取一个平均 + #print(outputs[:, :, idx],target_variable[:, idx]) + + loss.backward() + + optimizer.step() + optimizer_gru.step() + optimizer_cnn.step() + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + +def valid(val_data, encoder): + encoder.eval() # eval mode (no dropout or batchnorm) + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = AverageMeter() # loss (per word decoded) + accs = AverageMeter() # accuracy + + start = time.time() + + with torch.no_grad(): + # Batches + for i_batch, (input_variable, lengths, target_variable) in enumerate(val_data): + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + + outputs = encoder(input_variable, lengths) + + loss = 0 + acc = 0 + + # for idx, _ in enumerate(label_names): + # print(outputs[:, :, idx], target_variable[:, idx]) + for idx, _ in enumerate(label_names): + loss += criterion(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + acc += accuracy(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + return accs.avg, losses.avg + + +def valid_bert(val_data, encoder): + encoder.eval() # eval mode (no dropout or batchnorm) + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = AverageMeter() # loss (per word decoded) + accs = AverageMeter() # accuracy + + start = time.time() + + with torch.no_grad(): + # Batches + for i_batch, (input_variable, lengths, target_variable,mask) in enumerate(val_data): + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + + outputs = encoder(input_variable, mask) + + loss = 0 + acc = 0 + + # for idx, _ in enumerate(label_names): + # print(outputs[:, :, idx], target_variable[:, idx]) + for idx, _ in enumerate(label_names): + loss += criterion(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + acc += accuracy(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status 每print_every个批次打印一次准确率 + if i_batch % print_every == 0: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + return accs.avg, losses.avg + + +class Logger(object): + def __init__(self, filename='test.log', stream=sys.stdout): + self.terminal = stream + self.log = open(filename, 'a') + + def write(self, message): + self.terminal.write(message) + self.log.write(message) + + def flush(self): + pass + + +def main(): + voc = Lang('data/WORDMAP.json') # Lang对象的实现可能包含一些方法,例如add_word(word)方法用于向词汇表中添加新的单词, + print("voc.n_words: " + str(voc.n_words)) + # word2index(word)方法用于将单词转换为对应的索引,index2word(index)方法用于将索引转换为对应的单词等等。通过使用Lang对象,可以方便地将单词和索引进行转换,并在模型中使用索引进行计算 + with open("log.txt", 'a') as f: + print("voc.n_words: " + str(voc.n_words),file=f) + + flag = 'bert' # 如果使用bert则使用不同的方法处理数据 !!!!!!!!!!!!!!!!!!! + train_data = SaDataset('train', voc, flag) + #print(train_data,'train_data') + val_data = SaDataset('valid', voc, flag) + + if flag=='bert': + #encoder = Bert(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_sentence(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_add_aspect(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_gru_totalSentence(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU_Add(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU3(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_Gru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_BiGRU(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + encoder = Bert_CNN_BiGru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_BiGru_parms(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru1(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU_attention(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + + else: + # Initialize encoder + encoder = EncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) # ~!!!!!!!!!!!!!!! + # encoder = MyEncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) + # encoder = AttentionEncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) + + # Use appropriate device + encoder = encoder.to(device) + # # 加载保存的.pth文件,获取参数字典对象 + # saved_params = torch.load("models/checkpoint_10_80.651_state.pth") + # # 将参数字典传递给load_state_dict()方法 + # encoder.load_state_dict(saved_params) + encoder_name=encoder.__class__.__name__ + lr=config.learning_rate + # Initialize optimizers + print('Building optimizers ...') + with open("log.txt", 'a') as f: + print('Building optimizers ...',file=f) + print("=================================", encoder_name, lr,config.chunk_size,config.learning_rate,config.learning_rate_gru,config.learning_rate_cnn,"========================================", file=f) + optimizer = optim.Adam(encoder.bert.parameters(), lr=learning_rate) + optimizer_gru = optim.Adam(encoder.gru.parameters(), lr=config.learning_rate_gru) + optimizer_cnn = optim.SGD(encoder.convs.parameters(), lr=config.learning_rate_cnn) + + + best_acc = 0 + epochs_since_improvement = 0 + + # Epochs + for epoch in range(start_epoch, epochs): + # Decay learning rate if there is no improvement for 8 consecutive epochs, and terminate training after 20 + if epochs_since_improvement == 100: + break + if epochs_since_improvement > 0 and epochs_since_improvement % 8 == 0: + adjust_learning_rate(optimizer, 0.8) + + # One epoch's training + if flag=='bert': + train_bert(epoch, train_data, encoder, optimizer,optimizer_gru,optimizer_cnn) # !!!!!!!!!!!!!!!!!!!!!!! + else: + train(epoch, train_data, encoder, optimizer) + + # One epoch's validation + if flag=='bert': + val_acc, val_loss = valid_bert(val_data, encoder) + else: + val_acc, val_loss = valid(val_data, encoder) + + #所有验证集跑一次的准确率 + print('\n * ACCURACY - {acc:.3f}, LOSS - {loss:.3f}\n'.format(acc=val_acc, loss=val_loss)) + with open("log.txt", 'a') as f: + print('\n * ACCURACY - {acc:.3f}, LOSS - {loss:.3f}\n'.format(acc=val_acc, loss=val_loss),file=f) + + # Check if there was an improvement + is_best = val_acc > best_acc + best_acc = max(best_acc, val_acc) + + if not is_best: + epochs_since_improvement += 1 + print("\nEpochs since last improvement: %d\n" % (epochs_since_improvement,)) + with open("log.txt", 'a') as f: + print("\nEpochs since last improvement: %d\n" % (epochs_since_improvement,),file=f) + else: + epochs_since_improvement = 0 + + # Save checkpoint + #save_checkpoint(epoch, encoder, optimizer, val_acc, is_best) + filename = '{0}/checkpoint_{1}_{2:.3f}_state.pth'.format(config.save_folder, epoch, val_acc) + #torch.save(encoder.state_dict(),filename) + # Reshuffle samples + np.random.shuffle(train_data.samples) + np.random.shuffle(val_data.samples) + + +if __name__ == '__main__': + main() + diff --git a/template.py b/template.py new file mode 100644 index 0000000000000000000000000000000000000000..2750943ad94058ca9d50391a4d15f24b470555ae --- /dev/null +++ b/template.py @@ -0,0 +1,22 @@ +# -*- coding: utf-8 -*- +import json +import os +from config import label_names + +if __name__ == '__main__': + with open('README.template', 'r', encoding="utf-8") as file: + template = file.readlines() + template = ''.join(template) + + filename = 'result.json' + if os.path.isfile(filename): + with open(filename, 'r', encoding="utf-8") as file: + result = json.load(file) + + for i in range(10): + template = template.replace('$(content_{})'.format(i), result[i]['content']) + for j, label_name in enumerate(label_names): + template = template.replace('$(label_{}_{})'.format(i, j), str(result[i]['labels'][j])) + + with open('README.md', 'w', encoding="utf-8") as file: + file.write(template) diff --git a/test_data.csv b/test_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..5c65f89cbbc962cd86f99bbe05bf211635f9d89d --- /dev/null +++ b/test_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:e98ad61b049ebf83bc1bbcb6fdb1cfc5c044f65eed77bdcdf3983a1ed5669ba3 +size 609792 diff --git a/train.py b/train.py new file mode 100644 index 0000000000000000000000000000000000000000..15a6bbe817848ce4789f22ee58ebbaa7cb41ccaa --- /dev/null +++ b/train.py @@ -0,0 +1,448 @@ +import sys +import time + +import numpy as np +import torch +from torch import nn +from torch import optim +import os + +import config +import logging + + +from config import device, label_names, print_every, hidden_size, bert_path, encoder_n_layers, dropout, learning_rate, \ + start_epoch, \ + epochs +from data_gen import SaDataset +from model2 import Bert_CNN_CLS_BiGru2, Bert_gru_totalSentence, Bert_add_aspect, Bert_CNN_BiGru_parms +from models import EncoderRNN, AttentionEncoderRNN, Bert, Bert_GRU, Bert_GRU_Add, Bert_GRU2, Bert_BiGRU, Bert_GRU3, \ + Bert_CNN_Gru, Bert_GRU_attention, Bert_CNN_BiGru, Bert_CNN_CLS_BiGru, Bert_CNN_CLS_BiGru1, Bert_sentence, \ + Bert_sentence3 +from models import MyEncoderRNN +from utils import AverageMeter, ExpoAverageMeter, accuracy, Lang, timestamp, adjust_learning_rate, save_checkpoint +from torch.utils.tensorboard import SummaryWriter +from pytorch_pretrained import BertModel, BertTokenizer + + +def train(epoch, train_data, encoder, optimizer): + # Ensure dropout layers are in train mode + encoder.train() # 在训练一个PyTorch模型时,通常需要在每个训练迭代(epoch)开始前调用.train()方法将模型设置为训练模式, + # 以确保模型在训练时按照预期的方式进行计算。在训练迭代结束后,通常需要调用.eval()方法将模型设置为评估模式,以确保模型在评估时按照预期的方式进行计算 + + # 可视化 + # writer = SummaryWriter("logs") + # writer = SummaryWriter() + # writer.add_scalar() + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) # 交叉熵损失函数 + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = ExpoAverageMeter() # loss (per word decoded) + accs = ExpoAverageMeter() # accuracy + + start = time.time() + + # Batches + for i_batch, (input_variable, lengths, target_variable) in enumerate( + train_data): # lengths是句子长度,这里会把短句补长成同一个批次中最长的句子的长度 + # Zero gradients + #print(i_batch, (input_variable, lengths, target_variable), train_data) + optimizer.zero_grad() + # print('train_data',train_data.size()) + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + # print('input_variable.size(): ' + str(input_variable.size())) + # print('lengths.size(): ' + str(lengths.size())) + # print('target_variable.size(): ' + str(target_variable.size())) + print('input_variable', input_variable.size()) + # Forward pass through encoder + outputs = encoder(input_variable, lengths) + # outputs = encoder(input_variable) + + # print('outputs.size(): ' + str(outputs.size())) + + loss = 0 + acc = 0 + # print(outputs[:, :, 2], target_variable[:, 2]) + # _, ind = outputs[:, :, 3].topk(1, 1, True, True) + # targets=target_variable[:, 3] + # print(targets.view(-1, 1)) + # correct = ind.eq(targets.view(-1, 1).expand_as(ind)) + # print(correct) + # correct_total = correct.view(-1).float().sum() + # print(correct_total) + # print(len(label_names)) + # for idx, _ in enumerate(label_names): + # print(idx,(outputs[:, :, idx], target_variable[:, idx])) + # batch_size = target_variable[:, idx].size(0) + # print(100/batch_size) + + # print(outputs[:, :, 2]) + for idx, _ in enumerate(label_names): + # print(idx, (outputs[:, :, idx], target_variable[:, idx])) + loss += criterion(input=outputs[:, :, idx], target=target_variable[:, idx]) / len(label_names) # 问题出在这 + acc += accuracy(scores=outputs[:, :, idx], targets=target_variable[:, idx]) / len( + label_names) # 统计所有标签的loss值,再取一个平均 + # print(loss,acc) + + loss.backward() + + optimizer.step() + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + + +def train_bert(epoch, train_data, encoder, optimizer): + # Ensure dropout layers are in train mode + encoder.train() # 在训练一个PyTorch模型时,通常需要在每个训练迭代(epoch)开始前调用.train()方法将模型设置为训练模式, + # 以确保模型在训练时按照预期的方式进行计算。在训练迭代结束后,通常需要调用.eval()方法将模型设置为评估模式,以确保模型在评估时按照预期的方式进行计算 + + # 可视化 + # writer = SummaryWriter("logs") + # writer = SummaryWriter() + # writer.add_scalar() + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) # 交叉熵损失函数 + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = ExpoAverageMeter() # loss (per word decoded) + accs = ExpoAverageMeter() # accuracy + + start = time.time() + + # Batches + for i_batch, (input_variable, lengths, target_variable,mask,sentences,sentences_mask) in enumerate(train_data): # lengths是句子长度,这里会把短句补长成同一个批次中最长的句子的长度 + # Zero gradients + #print(len(sentences)) + #print("mask",sentences_mask,len(sentences_mask)) + # print(i_batch,data) + #print(i_batch, (input_variable, lengths, target_variable,mask), '(input_variable, target_variable, mask)') + optimizer.zero_grad() + # print('train_data',train_data.size()) + # Set device options + input_variable = input_variable.to(device) + # lengths=config.pad_size + # lengths = lengths.to(device) + target_variable = target_variable.to(device) + # print('input_variable.size(): ' + str(input_variable.size())) + # print('lengths.size(): ' + str(lengths.size())) + # print('target_variable.size(): ' + str(target_variable.size())) + #print('input_variable', input_variable.size()) + # Forward pass through encoder + # outputs = encoder(input_variable, lengths) + outputs = encoder(input_variable, mask,sentences,sentences_mask) + + # print('outputs.size(): ' + str(outputs.size())) + + loss = 0 + acc = 0 + # print(outputs[:, :, 2], target_variable[:, 2]) + # _, ind = outputs[:, :, 3].topk(1, 1, True, True) + # targets=target_variable[:, 3] + # print(targets.view(-1, 1)) + # correct = ind.eq(targets.view(-1, 1).expand_as(ind)) + # print(correct) + # correct_total = correct.view(-1).float().sum() + # print(correct_total) + # print(len(label_names)) + # for idx, _ in enumerate(label_names): + # print(idx,(outputs[:, :, idx], target_variable[:, idx])) + # batch_size = target_variable[:, idx].size(0) + # print(100/batch_size) + + # print(outputs[:, :, 2]) + #统计当前标签的准确率,遍历整个标签列表 + for idx, _ in enumerate(label_names): + # print(idx, (outputs[:, :, idx], target_variable[:, idx])) + loss += criterion(input=outputs[:, :, idx], target=target_variable[:, idx]) / len(label_names) # 问题出在这 + acc += accuracy(scores=outputs[:, :, idx], targets=target_variable[:, idx]) / len(label_names) # 统计所有标签的loss值,再取一个平均 + print(outputs[:, :, idx],target_variable[:, idx]) + + loss.backward() + + optimizer.step() + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('[{0}] Epoch: [{1}][{2}/{3}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(timestamp(), epoch, i_batch, len(train_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + +def valid(val_data, encoder): + encoder.eval() # eval mode (no dropout or batchnorm) + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = AverageMeter() # loss (per word decoded) + accs = AverageMeter() # accuracy + + start = time.time() + + with torch.no_grad(): + # Batches + for i_batch, (input_variable, lengths, target_variable) in enumerate(val_data): + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + + outputs = encoder(input_variable, lengths) + + loss = 0 + acc = 0 + + # for idx, _ in enumerate(label_names): + # print(outputs[:, :, idx], target_variable[:, idx]) + for idx, _ in enumerate(label_names): + loss += criterion(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + acc += accuracy(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status + if i_batch % print_every == 0: + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + return accs.avg, losses.avg + + +def valid_bert(val_data, encoder): + encoder.eval() # eval mode (no dropout or batchnorm) + + # Loss function + criterion = nn.CrossEntropyLoss().to(device) + + batch_time = AverageMeter() # forward prop. + back prop. time + losses = AverageMeter() # loss (per word decoded) + accs = AverageMeter() # accuracy + + start = time.time() + + with torch.no_grad(): + # Batches + for i_batch, (input_variable, lengths, target_variable,mask,sentences,sentences_mask) in enumerate(val_data): + # Set device options + input_variable = input_variable.to(device) + lengths = lengths.to(device) + target_variable = target_variable.to(device) + + outputs = encoder(input_variable, mask,sentences,sentences_mask) + + loss = 0 + acc = 0 + + # for idx, _ in enumerate(label_names): + # print(outputs[:, :, idx], target_variable[:, idx]) + for idx, _ in enumerate(label_names): + loss += criterion(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + acc += accuracy(outputs[:, :, idx], target_variable[:, idx]) / len(label_names) + + # Keep track of metrics + losses.update(loss.item()) + batch_time.update(time.time() - start) + accs.update(acc) + + start = time.time() + + # Print status 每print_every个批次打印一次准确率 + if i_batch % print_every == 0: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs)) + with open("log.txt", 'a') as f: + print('Validation: [{0}/{1}]\t' + 'Batch Time {batch_time.val:.3f} ({batch_time.avg:.3f})\t' + 'Loss {loss.val:.4f} ({loss.avg:.4f})\t' + 'Accuracy {accs.val:.3f} ({accs.avg:.3f})'.format(i_batch, len(val_data), + batch_time=batch_time, + loss=losses, + accs=accs),file=f) + + return accs.avg, losses.avg + + +class Logger(object): + def __init__(self, filename='test.log', stream=sys.stdout): + self.terminal = stream + self.log = open(filename, 'a') + + def write(self, message): + self.terminal.write(message) + self.log.write(message) + + def flush(self): + pass + + +def main(): + voc = Lang('data/WORDMAP.json') # Lang对象的实现可能包含一些方法,例如add_word(word)方法用于向词汇表中添加新的单词, + print("voc.n_words: " + str(voc.n_words)) + # word2index(word)方法用于将单词转换为对应的索引,index2word(index)方法用于将索引转换为对应的单词等等。通过使用Lang对象,可以方便地将单词和索引进行转换,并在模型中使用索引进行计算 + with open("log.txt", 'a') as f: + print("voc.n_words: " + str(voc.n_words),file=f) + + flag = 'bert' # 如果使用bert则使用不同的方法处理数据 !!!!!!!!!!!!!!!!!!! + train_data = SaDataset('train', voc, flag) + #print(train_data,'train_data') + val_data = SaDataset('valid', voc, flag) + + if flag=='bert': + #encoder = Bert(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_sentence(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + encoder = Bert_sentence3(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_add_aspect(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_gru_totalSentence(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU_Add(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU3(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_Gru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_BiGRU(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_BiGru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_BiGru_parms(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru1(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_CNN_CLS_BiGru2(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + #encoder = Bert_GRU_attention(voc.n_words, bert_path, hidden_size, encoder_n_layers, dropout) # !~!!!!!!!!!!!!!!!!!!! + + else: + # Initialize encoder + encoder = EncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) # ~!!!!!!!!!!!!!!! + # encoder = MyEncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) + # encoder = AttentionEncoderRNN(voc.n_words, hidden_size, encoder_n_layers, dropout) + + # Use appropriate device + encoder = encoder.to(device) + # # 加载保存的.pth文件,获取参数字典对象 + # saved_params = torch.load("models/checkpoint_10_80.651_state.pth") + # # 将参数字典传递给load_state_dict()方法 + # encoder.load_state_dict(saved_params) + encoder_name=encoder.__class__.__name__ + lr=config.learning_rate + # Initialize optimizers + print('Building optimizers ...') + with open("log.txt", 'a') as f: + print('Building optimizers ...',file=f) + print("=================================", encoder_name, lr,"========================================", file=f) + optimizer = optim.Adam(encoder.parameters(), lr=learning_rate) + + + best_acc = 0 + epochs_since_improvement = 0 + + # Epochs + for epoch in range(start_epoch, epochs): + # Decay learning rate if there is no improvement for 8 consecutive epochs, and terminate training after 20 + if epochs_since_improvement == 100: + break + if epochs_since_improvement > 0 and epochs_since_improvement % 8 == 0: + adjust_learning_rate(optimizer, 0.8) + + # One epoch's training + if flag=='bert': + train_bert(epoch, train_data, encoder, optimizer) # !!!!!!!!!!!!!!!!!!!!!!! + else: + train(epoch, train_data, encoder, optimizer) + + # One epoch's validation + if flag=='bert': + val_acc, val_loss = valid_bert(val_data, encoder) + else: + val_acc, val_loss = valid(val_data, encoder) + + #所有验证集跑一次的准确率 + print('\n * ACCURACY - {acc:.3f}, LOSS - {loss:.3f}\n'.format(acc=val_acc, loss=val_loss)) + with open("log.txt", 'a') as f: + print('\n * ACCURACY - {acc:.3f}, LOSS - {loss:.3f}\n'.format(acc=val_acc, loss=val_loss),file=f) + + # Check if there was an improvement + is_best = val_acc > best_acc + best_acc = max(best_acc, val_acc) + + if not is_best: + epochs_since_improvement += 1 + print("\nEpochs since last improvement: %d\n" % (epochs_since_improvement,)) + with open("log.txt", 'a') as f: + print("\nEpochs since last improvement: %d\n" % (epochs_since_improvement,),file=f) + else: + epochs_since_improvement = 0 + + # Save checkpoint + save_checkpoint(epoch, encoder, optimizer, val_acc, is_best) + filename = '{0}/checkpoint_{1}_{2:.3f}_state.pth'.format(config.save_folder, epoch, val_acc) + torch.save(encoder.state_dict(),filename) + # Reshuffle samples + np.random.shuffle(train_data.samples) + np.random.shuffle(val_data.samples) + + +if __name__ == '__main__': + main() + diff --git a/train_data.csv b/train_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..c336c616dc6009c8c3c4a9cabe1be58d01631897 --- /dev/null +++ b/train_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:4d470333dade24f7f5bb484c64aa66372206dddf89c0a152a9d23489aabf248e +size 1873975 diff --git a/utils.py b/utils.py new file mode 100644 index 0000000000000000000000000000000000000000..e46c9603d29767c9388c192bce2fa2077f80dbb6 --- /dev/null +++ b/utils.py @@ -0,0 +1,138 @@ +import datetime +import json +import os +import time + +import pandas as pd + +from config import * + + +def encode_text(word_map, c): + return [word_map.get(word, word_map['']) for word in c] + [word_map['']] + + +class Lang: + def __init__(self, filename): + word_map = json.load(open(filename, 'r')) + self.word2index = word_map + self.index2word = {v: k for k, v in word_map.items()} + self.n_words = len(word_map) + + +class AverageMeter(object): + """ + Keeps track of most recent, average, sum, and count of a metric. + """ + + def __init__(self): + self.reset() + + def reset(self): + self.val = 0 + self.avg = 0 + self.sum = 0 + self.count = 0 + + def update(self, val, n=1): + self.val = val + self.sum += val * n + self.count += n + self.avg = self.sum / self.count + + +# Exponentially weighted averages +'''指数加权平均统计,对数据进行平滑处理的方法,对过去的数据赋予不同的权重,使得新数据对平均值的影响逐渐减小''' +class ExpoAverageMeter(object): + # Exponential Weighted Average Meter + def __init__(self, beta=0.9): + self.reset() + + def reset(self): + self.beta = 0.9 + self.val = 0 + self.avg = 0 + self.count = 0 + + def update(self, val): + self.val = val + self.avg = self.beta * self.avg + (1 - self.beta) * self.val + + +def adjust_learning_rate(optimizer, shrink_factor): + """ + Shrinks learning rate by a specified factor. + :param optimizer: optimizer whose learning rate must be shrunk. + :param shrink_factor: factor in interval (0, 1) to multiply learning rate with. + """ + + print("\nDECAYING learning rate.") + for param_group in optimizer.param_groups: + param_group['lr'] = param_group['lr'] * shrink_factor + print("The new learning rate is %f\n" % (optimizer.param_groups[0]['lr'],)) + + +def ensure_folder(folder): + if not os.path.exists(folder): + os.makedirs(folder) + + +def save_checkpoint(epoch, encoder, optimizer, val_acc, is_best): + ensure_folder(save_folder) + state = {'encoder': encoder, + 'optimizer': optimizer} + + if is_best: + filename = '{0}/checkpoint_{1}_{2:.3f}.tar'.format(save_folder, epoch, val_acc) + torch.save(state, filename) + + # If this checkpoint is the best so far, store a copy so it doesn't get overwritten by a worse checkpoint + torch.save(state, '{}/BEST_checkpoint.tar'.format(save_folder)) + + +def load_checkpoint(epoch, encoder, optimizer, val_acc, is_best): + ensure_folder(save_folder) + state = {'encoder': encoder, + 'optimizer': optimizer} + + if is_best: + filename = '{0}/checkpoint_{1}_{2:.3f}.tar'.format(save_folder, epoch, val_acc) + torch.save(state, filename) + + # If this checkpoint is the best so far, store a copy so it doesn't get overwritten by a worse checkpoint + torch.save(state, '{}/BEST_checkpoint.tar'.format(save_folder)) + + +def encode_text(word_map, c): + return [word_map.get(word, word_map['']) for word in c] + [word_map['']] + +'''函数首先获取targets的批量大小,并使用topk方法获取每个样本预测结果中前k个最大的元素的索引。然后,函数根据targets的形状将其扩展为与ind相同的形状, +并将扩展后的targets与ind进行比较,得到一个布尔类型的张量correct,表示模型预测的结果是否与真实标签相同。最后,函数将correct张量展平为一维,并计算其中True值的数量, +除以批量大小得到准确率,最终以百分比的形式返回。''' +def accuracy(scores, targets, k=1): + #print('scores') + #print(scores) + # print('targets: ' + str(targets)) + batch_size = targets.size(0) + _, ind = scores.topk(k, 1, True, True) + correct = ind.eq(targets.view(-1, 1).expand_as(ind)) + #print('correct: ' + str(correct)) + correct_total = correct.view(-1).float().sum() # 0D tensor + return correct_total.item() * (100.0 / batch_size) + + +def parse_user_reviews(split): + if split == 'train': + filename = os.path.join(train_folder, train_filename) + elif split == 'valid': + filename = os.path.join(valid_folder, valid_filename) + else: + filename = os.path.join(test_a_folder, test_a_filename) + + #user_reviews = pd.read_csv(filename,encoding='gbk') + user_reviews = pd.read_csv(filename) + return user_reviews + + +def timestamp(): + return datetime.datetime.fromtimestamp(time.time()).strftime('%Y-%m-%d %H:%M:%S') diff --git a/val_data.csv b/val_data.csv new file mode 100644 index 0000000000000000000000000000000000000000..a3379f7c82995f6aad00f2aa63b059338e8bad9a --- /dev/null +++ b/val_data.csv @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:b1834db140b02f3f530cd85272a2fbfc219b30bc9fb19e7a5893ddc81c79cfd0 +size 616683