userid
stringclasses
377 values
course_number
int64
1
15
question_number
int64
1
5
question_content
stringclasses
5 values
answer_content
stringlengths
1
4.12k
grade
stringclasses
5 values
C-2021-2_U101
3
1
今日の内容を自分なりの言葉で説明してみてください
曖昧さの量はU(M)=log(2)Mで表され、Mが大きいほど曖昧さは大きくなり、U(M)には加法性があるという特徴がある。また、定常無記憶情報源SのときU(S)が生起確率の連続関数であると仮定の下ではエントロピーH(S)とも等しくなる。情報の曖昧さの減少は得られた情報量と等しく、生起確率pとすると-log(2)pと表せるので、生起確率が低いものの情報を得た時に値は大きくなる。さらに、どの事象が生起したかを教えてもらうときに得られる情報量の期待値はエントロピーに一致する。 条件付きエントロピーとはある情報を得た状態での曖昧さの期待値を計算したものであり、情報を得る前のエントロピーから条件付きエントロピーをひくことによって、二つの事柄がどの程度の相関を持っているかを明らかにすることができる。この値は相互情報量と呼ばれ、I(X,Y)と表されるが、XとYが入れ替わっても同じ値となる。相互情報量が0のとき情報を得たとしても曖昧さが変化しなかったということだから、その二つの事柄は無関係であるといえる。
A
C-2021-2_U101
3
2
今日の内容で、分かったこと・できたことを書いてください
今日の講義で前回ぼんやりとした理解だったエントロピーについてより詳しいことが分かった。「曖昧さ」「情報量」「エントロピー」というキーワードとそれらの関連性を自分の中で整理をつけることができたように感じる。また、予習段階で条件付きエントロピーに引っ掛かりを感じていたが、授業を聞く中で情報が整理され、自分で納得がいく程度に内容を理解することができた。
A
C-2021-2_U101
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
特にありません。
A
C-2021-2_U101
3
4
質問があれば書いてください
null
A
C-2021-2_U101
3
5
今日の授業の感想や反省を書いてください
今回も具体例によって理解が深まったように感じる。一方で、今回は予習の段階では「なんとなく分かった気がする」という程度であったものが、講義を聴くことによって「分かった」という感覚に変わり、自分がつまづいていた点や曖昧な理解で済ませてしまっていた点に気づいた。復習もしっかりと行って自分の中に情報を定着させたいと思う。また、今後も予習で自分の理解度をきちんとチェックすることで授業を有意義なものにしたいと思った。
A
C-2021-2_U133
3
1
今日の内容を自分なりの言葉で説明してみてください
今日の講義では情報の曖昧さやエントロピーと期待値との関係性を数値を用いて確かめた。得られる情報量というのを確率的に求められることを学んだ。
B
C-2021-2_U133
3
2
今日の内容で、分かったこと・できたことを書いてください
曖昧さが減少することは情報を得られているということであるというのが、計算例を参考に理解できたと思う。
B
C-2021-2_U133
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
相互情報量のXとYが無関係のときI(X,Y)=0というのが曖昧にしか理解できなかった。
B
C-2021-2_U133
3
4
質問があれば書いてください
null
B
C-2021-2_U133
3
5
今日の授業の感想や反省を書いてください
例題の計算をやってみながら授業を受けることで、理解しやすかった。条件つきエントロピーなど複雑なところもあって少し難しく感じた。しっかり復習をして、次の授業に臨みたいと思う。
B
C-2021-2_U117
3
1
今日の内容を自分なりの言葉で説明してみてください
情報の量を測る手段として、情報源の曖昧さを定量化するというやり方がある。これには単調増加や加法性という性質がある。一般に、確率pの事象の生起を知ったことによる曖昧さの減少は-log2pである。また、情報量の期待値はエントロピーに一致する。確率変数X,Yの関係の強さを表す度合いに相互情報量I(X,Y)があり、I(X,Y)=H(X)-H(X|Y)と定められている。
B
C-2021-2_U117
3
2
今日の内容で、分かったこと・できたことを書いてください
前回まで全くわからなかったエントロピーという概念が少し理解出来た。
B
C-2021-2_U117
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
条件付きエントロピーの式で、なぜH(p)に前提とする条件の確率をかけるのか分からなかった。
B
C-2021-2_U117
3
4
質問があれば書いてください
エントロピーが実際にどのような場面どのように使われているのか気になる。
B
C-2021-2_U117
3
5
今日の授業の感想や反省を書いてください
今回学んだことは数学などでやった事ありそうでない考え方や計算だった。エントロピー関数のグラフをイメージ出来れば具体的な数字を出さなくてもp=1/2からの距離で値の大小を比べられて便利だと思った。要素が多くなると理解が追いつかなかったので次回から整理して丁寧に追っていきたい。
B
C-2021-2_U65
3
1
今日の内容を自分なりの言葉で説明してみてください
確率pの事象の生起を知る=あいまいさが-log₂p減る (めったに起きないことを知った方が情報量を多く得られる)←意外だった 情報量の期待値=エントロピー エントロピーの値はp=1/2の時に最大となる 確率変数X,Yの相互情報量 I(X,Y)=H(X)-H(X|Y)  ←無関係だと0
C
C-2021-2_U65
3
2
今日の内容で、分かったこと・できたことを書いてください
エントロピーの計算
C
C-2021-2_U65
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
相互情報量からが難しかった。 復習してわかった。例がとても分かりやすい
C
C-2021-2_U65
3
4
質問があれば書いてください
特にありません
C
C-2021-2_U65
3
5
今日の授業の感想や反省を書いてください
イラストがかわいかったし、わかりやすかった。サイコロを振っているのはハムスターなのかリスなのか。
C
C-2021-2_U33
3
1
今日の内容を自分なりの言葉で説明してみてください
情報源の曖昧さとエントロピーの概念を学んだ。情報源SとSのエントロピーH(S)は一致する。候補が絞られるほど情報源の曖昧さは減少する。その時確率pに対する 曖昧さの減少は-log2pになる。H(p)はp=1/2の時に最大になる。
B
C-2021-2_U33
3
2
今日の内容で、分かったこと・できたことを書いてください
候補が絞られるほど情報源の曖昧さは減少することを理解し、それが-log2pであることを受け入れた。例題を通じて理解を深めることができた。
B
C-2021-2_U33
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
最後の相互情報量が分かりにくかったです。復習を通じて理解します。
B
C-2021-2_U33
3
4
質問があれば書いてください
null
B
C-2021-2_U33
3
5
今日の授業の感想や反省を書いてください
少し難しかったですが、猫のご機嫌と尻尾の関係が例になって理解に役立ちました。今回もありがとうございました。
B
C-2021-2_U17
3
1
今日の内容を自分なりの言葉で説明してみてください
エントロピー(情報の量の測り方)情報源の曖昧さを定理を使って求めていく。 情報量の期待値 エントロピー関数を使って求めていく。 相互情報量 条件付きエントロピーを使って求めていく。
B
C-2021-2_U17
3
2
今日の内容で、分かったこと・できたことを書いてください
それぞれの公式に数字をどう当てはめてどう答えを出していくのか分かった。また、なぜこのような式にになるのか理解できたため、演習で実際に計算することができた。
B
C-2021-2_U17
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
特になし
B
C-2021-2_U17
3
4
質問があれば書いてください
自分の中では理解できたと思っていますが、実際課題の答案があっているのかが知りたいです。
B
C-2021-2_U17
3
5
今日の授業の感想や反省を書いてください
課題や日誌の提出が遅かったので、もう少し早く提出するようにしようと思う。 また授業の予習でもう少し内容の理解を深くしようと思う。
B
C-2021-2_U39
3
1
今日の内容を自分なりの言葉で説明してみてください
今日は曖昧さの量U(M)について学んだ。曖昧さは加法性が適応でき、Log2のMとして表現できる。そして、曖昧さの関数が連続関数である仮定の下で、Sのエントロピーは各々の確率×その確率の曖昧さ(ーLog2のその確率)を足して導ける。また、情報量=曖昧さの減少である。すなわち、生起確率Pの事件の生起を知ったことで得られる情報量はそれによる曖昧さの減少量にひとしい(-log2のP)。得られる情報量の期待値はその確率×(-log2のその確率)の足し算によって計算でき、これはエントロピーに一致する。また、この事件が二つの場合、すなわち、一つの確率がPなら他の確率が1-pになるときのエントロピーはp(-log2のP)+(1-p)(-Log2の(1-p)であり、これは、P=1/2のときに最大となる。
B
C-2021-2_U39
3
2
今日の内容で、分かったこと・できたことを書いてください
情報の曖昧さの導出、得られる情報量の計算とエントロピーについて分かりました。
B
C-2021-2_U39
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
ありません。
B
C-2021-2_U39
3
4
質問があれば書いてください
また、この日誌を提出する時間が遅くなりましたが、日誌って次の授業の前にだけ提出すればいいですか。
B
C-2021-2_U39
3
5
今日の授業の感想や反省を書いてください
どんどん数字や文字が出て行って、難しくなり、数学っぽくなる感じでした。
B
C-2021-2_U14
3
1
今日の内容を自分なりの言葉で説明してみてください
得られた情報の量によって曖昧さは減少する。曖昧さU(M)はMに関して単調に増加し、加法性がある。ある無記憶定常情報源Sの曖昧さU(S)はSのエントロピーに一致する。またエントロピーは情報の期待値に一致する。相互情報量によって2つの情報の関係の強さが分かる。
A
C-2021-2_U14
3
2
今日の内容で、分かったこと・できたことを書いてください
情報の曖昧さとエンタルピーの関係性がよく分かった。得られた情報量が多いほどその曖昧さが減少していくことが理解できた。
A
C-2021-2_U14
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
I(X,Y)=0のときXとYは無関係というところで、H(X)=H(X|Y)になるのがどんなときかわからなかった。
A
C-2021-2_U14
3
4
質問があれば書いてください
null
A
C-2021-2_U14
3
5
今日の授業の感想や反省を書いてください
情報の曖昧さを感覚ではなく数値として表すことができるのがとても面白いと思った。アルファベット表記で混乱したところがあるので復習して区別をしたい。
A
C-2021-2_U123
3
1
今日の内容を自分なりの言葉で説明してみてください
null
F
C-2021-2_U123
3
2
今日の内容で、分かったこと・できたことを書いてください
null
F
C-2021-2_U123
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
null
F
C-2021-2_U123
3
4
質問があれば書いてください
null
F
C-2021-2_U123
3
5
今日の授業の感想や反省を書いてください
null
F
C-2021-2_U7
3
1
今日の内容を自分なりの言葉で説明してみてください
情報量の測り方  曖昧さを減少することで情報量を獲得することができる  曖昧さの性質には加法性  生起確率をPとするとその情報量は-log2 P  情報量の期待値はエントロピーに一致  生起確率×(-log2 生起確率)の和  相互情報量  
F
C-2021-2_U7
3
2
今日の内容で、分かったこと・できたことを書いてください
情報量も数式で定義できるということ
F
C-2021-2_U7
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
Hがわからなかった
F
C-2021-2_U7
3
4
質問があれば書いてください
null
F
C-2021-2_U7
3
5
今日の授業の感想や反省を書いてください
null
F
C-2021-2_U140
3
1
今日の内容を自分なりの言葉で説明してみてください
情報量を測るための、数式について学んだ。
C
C-2021-2_U140
3
2
今日の内容で、分かったこと・できたことを書いてください
ある情報がもたらした情報量の多さを数式によって表すこと。
C
C-2021-2_U140
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
エントロフィーの使用用途
C
C-2021-2_U140
3
4
質問があれば書いてください
null
C
C-2021-2_U140
3
5
今日の授業の感想や反省を書いてください
null
C
C-2021-2_U165
3
1
今日の内容を自分なりの言葉で説明してみてください
情報のあいまいさを数学的に表す、また情報量の期待値を求める。
D
C-2021-2_U165
3
2
今日の内容で、分かったこと・できたことを書いてください
情報のあいまいさを数値によってあらわせること、また前回の授業で出てきたエントロピーの活用などについて学べた。
D
C-2021-2_U165
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
対数を使った照明などはまだのみ込めていないのでしっかり復習するようにしたい。
D
C-2021-2_U165
3
4
質問があれば書いてください
null
D
C-2021-2_U165
3
5
今日の授業の感想や反省を書いてください
情報の授業で数学的なことばかりだったので少し大変だったが理解が追いつくようにしていきたい。
D
C-2021-2_U49
3
1
今日の内容を自分なりの言葉で説明してみてください
null
F
C-2021-2_U49
3
2
今日の内容で、分かったこと・できたことを書いてください
null
F
C-2021-2_U49
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
null
F
C-2021-2_U49
3
4
質問があれば書いてください
null
F
C-2021-2_U49
3
5
今日の授業の感想や反省を書いてください
null
F
C-2021-2_U36
3
1
今日の内容を自分なりの言葉で説明してみてください
一般の情報量の曖昧さの減少量は生起確率pの事象の生起を知ったことによって得られた情報量に等しく-log₂pとあらわすことができる。また、情報量の期待値はエントロピーの値と一致する。
B
C-2021-2_U36
3
2
今日の内容で、分かったこと・できたことを書いてください
得られる情報量をその事象の生起確率を用いることによって、求めることができた。また、得られる情報量の期待値の大小もそれを表す式の意味を理解し、エントロピー関数を用いることで区別することができた。
B
C-2021-2_U36
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
相互情報量がなぜあのように定義されるのかがわからなかった。
B
C-2021-2_U36
3
4
質問があれば書いてください
null
B
C-2021-2_U36
3
5
今日の授業の感想や反省を書いてください
得られる情報量はlogの計算によって数値化できるということを学んだ。なぜ得られる情報量の期待値がエントロピーを表す式に一致するのかということはそれぞれの事象の曖昧さの減少量にその事象の生起確率をかけて足し合わせたものだととらえれば納得のいくことであると思った。
B
C-2021-2_U94
3
1
今日の内容を自分なりの言葉で説明してみてください
今日の授業は全体としては情報量の測り方の授業でした。情報量のあいまいさや期待値を調べることで情報の量が分かるようになるということを学びました
C
C-2021-2_U94
3
2
今日の内容で、分かったこと・できたことを書いてください
あいまいさの性質を知ることのにより情報量を求めれるようになりました。さらに期待値をもとめたり相互関係も把握できるようになりました
C
C-2021-2_U94
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
logの計算のところは聞いているだけでは完全に腑に落ちなかったので実際に手を動かしてみたいと思いました
C
C-2021-2_U94
3
4
質問があれば書いてください
null
C
C-2021-2_U94
3
5
今日の授業の感想や反省を書いてください
聞いているだけではなんとなくしか分からないうえに分かった気になってしまうような分野なので実際に演習問題を解き解決したいと思います
C
C-2021-2_U71
3
1
今日の内容を自分なりの言葉で説明してみてください
情報の量を測るというテーマで、情報の曖昧さと情報の期待値について学びます。情報の曖昧さはlogを使って定量化することが可能で、期待値は確立とlogを使って表現することが可能であり、これはエントロピーに一致する。相互情報についても勉強した。
C
C-2021-2_U71
3
2
今日の内容で、分かったこと・できたことを書いてください
今日の講義では、情報の曖昧さの定量化と情報の期待値の学習をしました。情報の曖昧さは新たな情報を得ていくことによって減少しその量はlogを使って定義することが出来る。また期待値は確立を用いて表すことが出来る。
C
C-2021-2_U71
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
今日の講義ではU(M)=log(2)Mの導出の式が理解できなかったので自分の手を動かして理解しようと思います。
C
C-2021-2_U71
3
4
質問があれば書いてください
null
C
C-2021-2_U71
3
5
今日の授業の感想や反省を書いてください
今日の授業は今までの中で一番数学チックだったので難しかったです。予習復習をしっかりしていきたいと思います。
C
C-2021-2_U88
3
1
今日の内容を自分なりの言葉で説明してみてください
主に情報量についてを中心に学んだ。特に情報量がどういった定義か、そしてどのように求めるかが重要だった。
B
C-2021-2_U88
3
2
今日の内容で、分かったこと・できたことを書いてください
情報量というものの概念の概形をとらえることができた。情報量を求める手法を学び、実践することができた。
B
C-2021-2_U88
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
情報量というものがどのようなものかは何となくわかったが、想像しにくくなれるのに時間がかかりそうである。
B
C-2021-2_U88
3
4
質問があれば書いてください
null
B
C-2021-2_U88
3
5
今日の授業の感想や反省を書いてください
日常生活でコンピューターに触れていく中でも今回やった内容のように、いかに効率よく情報を得るかどうかという視点で最適化された挙動があることに気が付いた。計算ミスをかなりするので見直しをしっかりしたい。
B
C-2021-2_U106
3
1
今日の内容を自分なりの言葉で説明してみてください
情報の曖昧さの定量化や曖昧さの性質、曖昧さとエントロピーや情報量との関係、情報量の期待値の求め方、およびある二つの事象に関しての相互情報量や条件付き確率に伴う条件付きエントロピーの求め方について学びました。
B
C-2021-2_U106
3
2
今日の内容で、分かったこと・できたことを書いてください
なぜ先週の授業でいきなりエントロピーの計算をlog2を用いて行うかについてすこし理解が足りていなかったが今日の授業でエントロピーと情報の曖昧さとの関係を知って頭の中がスッキリしました。
B
C-2021-2_U106
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
なぜ情報の期待値とエントロピーが一致するのかその背景があまりわからなかった。
B
C-2021-2_U106
3
4
質問があれば書いてください
null
B
C-2021-2_U106
3
5
今日の授業の感想や反省を書いてください
相互情報量や情報の曖昧さなどについて学ぶことができたため今まで以上にある複数の事象の相関関係について詳しくしることができるようになったと思いました。、また数学、物理や化学などの異なる教科がつながっていることを感じれたのでとても面白かったです。
B
C-2021-2_U31
3
1
今日の内容を自分なりの言葉で説明してみてください
情報源Sの曖昧さはSのエントロピーと一致する。また、生起条件pの事象を知ったことで得られる情報量を、曖昧さの減少量と考えることで、公式を使い求められる。この公式からめったに起きない事象ほど、得られる情報量が多いことが分かる。情報量の期待値はエントロピーと一致する。
A
C-2021-2_U31
3
2
今日の内容で、分かったこと・できたことを書いてください
得られる情報量を数値で求めることができた。 エントロピーの重要性を理解した。
A
C-2021-2_U31
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
公式の意味を深くまで理解することができなかった。
A
C-2021-2_U31
3
4
質問があれば書いてください
null
A
C-2021-2_U31
3
5
今日の授業の感想や反省を書いてください
様々な公式が出てきて、計算内容も複雑であったので少し難しかった。 情報量などを数値で表せることはおもしろいと思った。
A
C-2021-2_U20
3
1
今日の内容を自分なりの言葉で説明してみてください
null
C
C-2021-2_U20
3
2
今日の内容で、分かったこと・できたことを書いてください
定義は知れた。なんとなく、そうなんだ程度の理解。
C
C-2021-2_U20
3
3
今日の内容で、分からなかったこと・できなかったことを書いてください
null
C
C-2021-2_U20
3
4
質問があれば書いてください
null
C
C-2021-2_U20
3
5
今日の授業の感想や反省を書いてください
null
C