userid
stringclasses 377
values | course_number
int64 1
15
| question_number
int64 1
5
| question_content
stringclasses 5
values | answer_content
stringlengths 1
4.12k
⌀ | grade
stringclasses 5
values |
|---|---|---|---|---|---|
C-2021-2_U116
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
| null |
C
|
C-2021-2_U116
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
| null |
C
|
C-2021-2_U116
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
| null |
C
|
C-2021-2_U116
| 3
| 4
|
質問があれば書いてください
| null |
C
|
C-2021-2_U116
| 3
| 5
|
今日の授業の感想や反省を書いてください
| null |
C
|
C-2021-2_U18
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
エントロピーとは情報の曖昧さを表したりするものでその計算によって情報量の減少だったりを計算することができる。
|
B
|
C-2021-2_U18
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
エントロピーと情報量だったり式の意味が分かった。
|
B
|
C-2021-2_U18
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
特になし
|
B
|
C-2021-2_U18
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U18
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
情報の曖昧さや量など普段考えもしない新しい考え方がわかった。
|
B
|
C-2021-2_U159
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報量とは曖昧さの減少であり、対数を用いた公式で導くことができる。その情報量の期待値はエントロピーと一致する。
|
D
|
C-2021-2_U159
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
情報量の求め方、期待値の求め方
|
D
|
C-2021-2_U159
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
特にないです
|
D
|
C-2021-2_U159
| 3
| 4
|
質問があれば書いてください
| null |
D
|
C-2021-2_U159
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
久々の対数計算で数学の問題を解くことが懐かしく感じた。
|
D
|
C-2021-2_U142
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報の曖昧さを定量化するという考え方があり、これは情報源をSとすると、Sのエントロピーに等しくなる。
情報量とは曖昧さの減少のことである。また、相互情報量とは、確率変数をX、Yとすると、その関係の強さを表す指標となる。
|
B
|
C-2021-2_U142
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
情報量=曖昧さの減少という意味とその求め方について理解できました。また、相互情報量がある事象ともう一つの事象についての関係の強さを表すということも分かりました。
|
B
|
C-2021-2_U142
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
情報量の期待値の求め方が、猫の機嫌の話から理解が中途半端になってしまいました。
|
B
|
C-2021-2_U142
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U142
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
情報や情報量という単語は普段もよくも耳にする単語ですが、情報量のことを曖昧さの減少というふうに考えるのはおもしろいなと思いました。
|
B
|
C-2021-2_U100
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報には曖昧さがあり、情報量が多くなると曖昧さが減少することから、情報量は曖昧さの減少量である。また、発生率によってその事象の情報を得られる可能性が変わり、それを計算したものを期待値という。
|
B
|
C-2021-2_U100
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
情報量が増えると確かになっていくのは分かっていたけど、それが曖昧さの減少と定義した上で、計算で度合いを出せると言うことを学んだ。期待値自体は知っていたけれどそれが、確率などによるその情報を得られる可能性を表すと言うことを理解した。
|
B
|
C-2021-2_U100
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
特になし
|
B
|
C-2021-2_U100
| 3
| 4
|
質問があれば書いてください
|
特になし
|
B
|
C-2021-2_U100
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
今まで理解していなかった、期待値のことをしれて良かったと思った。情報の曖昧さなどを定義した上での情報の正確さを定めているあたりが回りくどいと思ったけど、説明を聞くと合理的でとてもわかりやすい考え方だと思った。
|
B
|
C-2021-2_U130
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
エントロピーとは何かについての詳しい説明と、その情報量の計算方法、情報の種類について学んだ。
|
B
|
C-2021-2_U130
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
エントロピーという言葉自体があまり私にとって身近ではなかったので初めは少し難しく感じられたが、実際に授業を聞いてみると、エントロピーの概念や基本の情報量の計算方法は想像していたよりも単純なものだったので、基本的な部分は理解できたと思う。
|
B
|
C-2021-2_U130
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
言葉の概念や基本的なところは理解しているつもりだが、少し複雑な部分になっても応用が効くようにしたいと思う
|
B
|
C-2021-2_U130
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U130
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
前回の授業より詳しく学べたので、前回までと比べて少し理解できるスピードが早くなれたと思う。
|
B
|
C-2021-2_U168
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
一般の情報源のあいまいさは情報源のエントロピーに一致する。情報量の増加は曖昧さの減少である。
|
C
|
C-2021-2_U168
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
得られる情報量、情報量の期待値、相互情報量の計算は、できるようになった。
|
C
|
C-2021-2_U168
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
条件付きエントロピーの求め方があまりわからなかったので、例に示されている解き方を参考にして、解いていきたい。
|
C
|
C-2021-2_U168
| 3
| 4
|
質問があれば書いてください
| null |
C
|
C-2021-2_U168
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
今日の授業内容は、ほとんど公式を覚えるといったものだったので、例題や演習問題を通して、習得できたと思う。条件付きエントロピーがあまりよくわからなかったので、復習して、完璧にしたい。
|
C
|
C-2021-2_U8
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報の量を測るにあたり、あいまいさの減少が得られた情報の量に等しくなる。曖昧さの量はU(M)であらわされる。曖昧さU(M)はMに関して単調増加し、加法性を持つという性質を持っている。情報源Sの曖昧さU(S)は連続関数であるという仮定の下でSのエントロピーに一致し、U(S)=log₂Mで与えられる。よって確率pの事象の生起を知ったことによるあいまいさの減少は-log₂pとなる。すなわち、めったに起きない事象の生起を知ることで得られる情報量は大きい。事象A₁ ,~,Aⅿの生起確率がそれぞれp₁,~,pmのとき得られる情報の期待値はp₁(-log₂p₁)+~+pm(-log₂pm)となり、これはエントロピーと一致する。また、エントロピー関数ではp=1/2の時に最大となる。ある二つの事象の関係性を加味したものを相互情報量という。確率には同時確率と条件付確率がある。確率変数X,Yの相互情報量をI(X,Y)=H(X)-H(X|Y)であらわす。この時XとYが入れ替わっても答えは同じ、XとYが無関係の時I(X,Y)=0という性質がある。
|
A
|
C-2021-2_U8
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
平均符号語長の下限であるエントロピーと情報源のあいまいさは等しく、可視化ができるということが分かった。同時確率と条件付確率の考え方を思い出すことができた。情報量の簡単な計算はできるようになった。
|
A
|
C-2021-2_U8
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
相互情報量の計算がよくわからなかった。また、情報の量が複数になった際の情報量の計算で少し手間取った。
|
A
|
C-2021-2_U8
| 3
| 4
|
質問があれば書いてください
|
相互情報量の計算で使用する確率は条件付確率でないといけないのですか。
|
A
|
C-2021-2_U8
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
今回の授業では計算を必要とする場面が多くあり、数学の知識も大いに必要であると感じた。高校時代に勉強した内容も多く必要となるのでこれを機にしっかり復習しよう思った。
|
A
|
C-2021-2_U78
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
あいまいさの量について学んだ。また、曖昧さの性質や、情報量の期待値を知った。
|
C
|
C-2021-2_U78
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
あいまいさの量を定量化できることや、曖昧の減少は得られた情報量と一致することを学んだ。
|
C
|
C-2021-2_U78
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
曖昧の量や期待値の計算はなぜそうなるのかを知ることができなかった。
|
C
|
C-2021-2_U78
| 3
| 4
|
質問があれば書いてください
| null |
C
|
C-2021-2_U78
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
あいまいさが定量化できることを知って驚いた。
|
C
|
C-2021-2_U153
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報の曖昧(情報量)を式にして数値化することについて学びました。また、それに加えて情報量の期待値や相互情報量なども学びました。簡潔にまとめると色々なパターンの情報量の数値化について学びました。
|
B
|
C-2021-2_U153
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
情報量、情報の期待値、情報量の減少、相互情報量の定義、内容、計算をしっかりとできるようになったと思います。
|
B
|
C-2021-2_U153
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
特にないです。U(M)=log2Mの証明も予習の段階では理解が難しかったですが、授業と復習で理解できました。
|
B
|
C-2021-2_U153
| 3
| 4
|
質問があれば書いてください
|
特にないです。
|
B
|
C-2021-2_U153
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
前回の授業に比べて内容の理解がよくできたと思います。内容が理解できれば今のところ計算は高校数学レベルなのでとにかく定義や式の意味を理解できるようにしていきたいです。
|
B
|
C-2021-2_U51
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報の量を1か0かで判別していき、徐々に絞っていくようあ考え方を習った。
|
C
|
C-2021-2_U51
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
曖昧さの期待値ということが理解できた。
|
C
|
C-2021-2_U51
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
| null |
C
|
C-2021-2_U51
| 3
| 4
|
質問があれば書いてください
| null |
C
|
C-2021-2_U51
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
結構数字がたくさん出てきて、文系の自分にとっては難しく感じたが、身につければ普段の思考の基礎となりうるような内容だったのでしっかり理解したい。
|
C
|
C-2021-2_U3
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
・曖昧さU(M)について
性質:Mに関して単調増加・加法性(=1...MNの目を持つサイコロを振った場合と同様)
定理:U(M)=log2M
情報源Sのエントロピー=曖昧さU(S)
確率pの事象の正気を知ったことによる、曖昧さの減少はーlog2
・エントロピー関数
p1=p,p2=1-pとすると、エントロピーの値はH (p )=p (-log2p)+(1-p)(-log2(1-p))
H(p)はp=1/2のとき最大になる
・相互情報量
定義:確率変数X,Yの相互情報量をI(X、Y )=H (X )-H(X|Y)で定める。
|
B
|
C-2021-2_U3
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
曖昧さや曖昧さの減少という数値化できないというもが情報化により見える形、計算できる形にできることがわかりいました。また、今までの授業で習った確率がこのようにはたらく、用いることができるのだということもわかりました。
|
B
|
C-2021-2_U3
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
相互情報量についてあまりしっかりと理解できなかった。
|
B
|
C-2021-2_U3
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U3
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
多くの人がわからないと思っていたところをゆっくり解説してくださってわかりやすかったです。
|
B
|
C-2021-2_U42
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
知識の曖昧さについて、その量をU(M)で表す。また、この値はMに関して単調増加し、加法性も持つ。一様に分布する情報源Sの曖昧さU(S)はSのエントロピーに等しい。
|
B
|
C-2021-2_U42
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
情報量とは曖昧さの減少のことを表しており、生起確率pの事象の生起を知ったことで得られる情報量を−log2𝑝で表す。
|
B
|
C-2021-2_U42
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
特になし
|
B
|
C-2021-2_U42
| 3
| 4
|
質問があれば書いてください
|
特になし
|
B
|
C-2021-2_U42
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
普段の事象の生起が数学と密接につながっていることを改めて知ることができた。現在履修している数理統計学とのつながりも意識しながら学んでいきたいと思った。
|
B
|
C-2021-2_U19
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報の曖昧さと得られる情報量、その期待値は数値としてあらわすことができる。
|
B
|
C-2021-2_U19
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
今回は予習ができたのである程度理解した状態で授業を受けることができた。
|
B
|
C-2021-2_U19
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
定義としての数式を覚えることはできたが、なぜそうなるのかを完全に理解できたかは怪しい。
|
B
|
C-2021-2_U19
| 3
| 4
|
質問があれば書いてください
|
特になし
|
B
|
C-2021-2_U19
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
前回よりも具体的な話で理解しやすかった。
|
B
|
C-2021-2_U156
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
曖昧さの減少=得られた情報量
|
C
|
C-2021-2_U156
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
期待値を考えることでエントロピーがわかる
|
C
|
C-2021-2_U156
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
なぜlog2を使うのか、まだ腑に落ちない
|
C
|
C-2021-2_U156
| 3
| 4
|
質問があれば書いてください
|
なぜlog2を使うのか再度説明していただきたい
|
C
|
C-2021-2_U156
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
「入念に説明しました」とおっしゃっていましたが、まだ理解が追いついていないと感じています。
|
C
|
C-2021-2_U158
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
エントロピーの定理と計算方法。
|
B
|
C-2021-2_U158
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
エントロピーの計算方法と確率の関係
|
B
|
C-2021-2_U158
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
エントロピーの母数が多い時の計算
|
B
|
C-2021-2_U158
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U158
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
簡単なエントロピーの計算はできるようになったが、複雑なのになるとできなくなってしまった。
|
B
|
C-2021-2_U60
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
無記憶定常情報源Sの曖昧さをU(S)とすると、確率pの事象が起こった時、それによる曖昧さの減少量は-log₂pで表される。
事象Akが生起する確率をそれぞれpk(k=1~n)とすると、得られる情報量の期待値は∑(k=1~n)(-log₂pk)/pkで表すことが出来る。これは曖昧さUやそのエントロピーHに一致する。
確率変数X,Yの相互情報量はI(X,Y)=H(X)-H(X|Y)で表すことが出来る。条件付きエントロピーH(X|Y)は、Yが生起する事象Yk(k=1~n)を用いて、H(X|Y)=∑(k=1~n)pYk*H(pX(Yk))で表すことが出来る。
|
C
|
C-2021-2_U60
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
エントロピーそのものが情報源の曖昧さと一致することが分かった。
|
C
|
C-2021-2_U60
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
相互情報量を求めることで、何が分かるのかが分からなかった。
|
C
|
C-2021-2_U60
| 3
| 4
|
質問があれば書いてください
|
特になし
|
C
|
C-2021-2_U60
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
段々、内容が難しくなってきているため、日々の予習、復習をキチンとせねば、と思いました。
|
C
|
C-2021-2_U25
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
情報量、情報の期待値、あいまいさの関係。
|
B
|
C-2021-2_U25
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
エントロピー関数が最大になるとき。
|
B
|
C-2021-2_U25
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
エントロピーを完全に理解すること。
|
B
|
C-2021-2_U25
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U25
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
小テストで、わかっていたのに選択肢を間違えるという一番やってはいけないミスをしてしまった。次回からは絶対にそのようなことがないよう気を付けたい。
|
B
|
C-2021-2_U76
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
ある事象に対して、質問への回答を得ることにより曖昧さが減少し、これは得られた情報の量に等しい。曖昧さの量をU(M)とするとMに関して単調増加であり、加法性が成り立つことからU(M)=log2(M)が成り立つ。また一般の情報源U(S)の曖昧さはSのエントロピーに一致する。確定変数X Yの相互情報量はI(X,Y)=H(X)-H(X|Y)で定められ、I(X,Y)=0の時XとYは互いに影響を与えない無関係なものとして扱われる。
|
B
|
C-2021-2_U76
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
今日の内容で曖昧さの減少から与えられる情報量をログを使って求めることができた。
|
B
|
C-2021-2_U76
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
エントロピー関数の用い方と相互情報量の計算がとても難しかった。
|
B
|
C-2021-2_U76
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U76
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
今日は、前の授業と比べて、計算の内容が多くなっているのでしっかりと復習をして定着させていきたい。また「〇〇を聞くことでわかる情報量」というように実体がないものを予想してもとめる計算がとても面白く感じた。
|
B
|
C-2021-2_U89
| 3
| 1
|
今日の内容を自分なりの言葉で説明してみてください
|
曖昧さの減少=得られた情報の量。確率1/Mのときの曖昧さの量をU(M)と定義すると、U(M)はMに関して単調増加で、加法性U(MN)=U(M)+U(N)が成り立つ。これらの性質と、U(2)=1としたときに、U(M)=log2Mが得られる。エントロピー=得られる情報の期待値。確率Pの事象の生起を知ったことによる、曖昧さの減少は-log2P。
|
B
|
C-2021-2_U89
| 3
| 2
|
今日の内容で、分かったこと・できたことを書いてください
|
なぜエントロピーを計算するときに、底2のlogを使うのか理由が分かった。
|
B
|
C-2021-2_U89
| 3
| 3
|
今日の内容で、分からなかったこと・できなかったことを書いてください
|
相互情報量の部分が少し煩雑で、時間をかけて勉強しないと分からない内容だった。
|
B
|
C-2021-2_U89
| 3
| 4
|
質問があれば書いてください
| null |
B
|
C-2021-2_U89
| 3
| 5
|
今日の授業の感想や反省を書いてください
|
今日の授業は全体的に難しい内容だったが、自分なりに納得できた。相互情報量の部分は、授業の時は分からなかったが、あとで勉強して理解できた。
|
B
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.