
<head>
	<meta charset="UTF-8">
	<title>Title</title>
    <style>
		
@media only screen and (min-width:960px) {
		body {
			width: 55%;
			height: auto;
			padding: 0;
			margin: auto;
			border: 0;
			
			 background: -webkit-linear-gradient(SALMON, MEDIUMBLUE); /* Safari 5.1 - 6.0 */
             background: -o-linear-gradient(SALMON, MEDIUMBLUE); /* Opera 11.1 - 12.0 */
              background: -moz-linear-gradient(SALMON, MEDIUMBLUE); /* Firefox 3.6 - 15 */
              background: linear-gradient(SALMON, MEDIUMBLUE); /* 标准的语法（必须放在最后） */
		}

		.ma {
			width-height: 100%;
			text-align: left;
			white-space: pre-wrap;
			background-color: white;
			padding: 0 10px 0px 10px;
			margin: 0;
			border: 0;
			
		}

		.ma.art {
			text-align: left;
			display: inline-block;
			
			
		}

		footer {
			text-align: center;
		}
		</style>
</head>

<body>
	<div class="ma">
		<main>
			<header class="pa">
				<h1>人工智能与大数据：谁玩得起</h1>
			</header>
			<hr />
			<div class="arti">
				<article>

					<h2>机器犯错，是谁的锅？</h2>
					<p>有人说机器犯错是设计者的锅。其实，生产者，设计者，所有者，甚至是拥有法律人格的机器人，都能为错误负责。  
图费克奇在TED上表达自己的看法，机器会继承人类的偏见。  
事实也是如此，微软聊天机器人tay在twitter上抛脏话，微软小冰由清新少女变为扣脚大汉。  
我们不知道机器狗会做出什么回应。  
因为机器除了本身会有过拟化等毛病，还有存在暗箱。[过拟化让我想起《摩登时代》里的用餐机器]我们无从得知机器如何得出结论，如果不公开计算方式，我们能知道机器给我们的答案是否公正？
AI杀熟行为可是有的。苹果端收费高于安卓端[虽然苹果会对软件收取30%的费用]，廖师傅廖师傅订房贵了80块，会员网上购买影票贵过非会员。正因为计算的不可见性，我们失去了该有的公平。
机器人和武器是一样，如果落在恶人手中，自会危害社会。  
所以图费克奇说：<em>“机器时代到来了，我们要格外恪守人类的价值观和道德。”</em>  
<h2>咋样减少背锅啊？</h2>  
毕竟发明机器的初衷就是做人类不可能之事，解放我们的双手，让我们去创造更有价值的东西。[不过，看起来机器似乎比人类更能创造呢]  
使用区块链就是个不错的选择。对信息加密保密，又能收集部分被允许看到的信息，用个人的利益换取公众的权益。这是约翰贝尔班克斯说的：让我们分享医疗数据8！  
阅读相关材料呢，能知道:在不赋予智能机器人法律人格的情况下, 它只是辅助人类的工具, 则可以适用侵权责任法的产品责任法, 即“因产品缺陷造成损害的, 被侵权人可以向产品的生产者请求赔偿, 也可以向产品的销售者请求赔偿。”产品缺陷主要包括设计缺陷、制造缺陷或者警示缺陷, 然而证明智能机器人的这些缺陷似乎存在一定的困难, 并且由于自然环境的复杂性和不可预知性, 使得人们没有办法提前编制出相应的程序, 从而导致事故的发生。
产品缺陷主要包括设计缺陷、制造缺陷或者警示缺陷, 然而证明智能机器人的这些缺陷似乎存在一定的困难, 并且由于自然环境的复杂性和不可预知性, 使得人们没有办法提前编制出相应的程序, 从而导致事故的发生。
所以背锅人究竟是谁还是一个难题啦。现在的我还很弱鸡，还回答不了这样的问题。  </p>
					<hr />
					<h2>数据不能决定所有</h2>
					<p>
苏珊艾特林格：<em>“因为，坦白地讲，数据自己不会创造意义，是我们创造数据的意义。因此，作为商人，作为消费者， 作为病人，作为公民， 我认为我们都有责任 花更多时间来锻炼批判性思维能力。 为什么？ 因为历史发展到今天， 我们总是听到这样的说法， 我们能以闪电般速度 处理海量数据， 这就意味着我们能以更快地速度做出错误的决策， 带给我们史无前例的巨大影响。”</em><br>
她举了例子：自家小孩被数据判定为自闭儿童，但是小孩能自己拼写单词，即使父母没有教过。
显然小孩一直在自我学习如何去沟通，而成人们将注意力投向他处。
因此，她认为人们应该多花一点一时间在 人文学， 社会学，社会科学， 修辞学，哲学，伦理学，这有利于培养我们的批判思维，而不是犯后此谬误post hoc ergo propter hoc
后此谬误；后此谬误。第一个错误出自于因果推理。如果我们仅仅因为一件事发生在另一件事之前，就想当然地认为前者是后者的原因，那么，我们就犯下了这里所说的后此谬误。
这令我想到“自动化思维”。
<b>自动化思维</b>指无意识的、不带意图目的的、自然而然的并且不需要努力的思维


					<ol>
<p>如何减少自动化思维负面影响？</p>
								<li>当你产生不良和负面的情绪时，问自己：我为什么会产生这样的情绪？并把这个过程记录下来。如下图:
									<img src="https://upload-images.jianshu.io/upload_images/15476573-51c8e0d091dc4815.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240" alt="情绪产生过程图" width="100%" height="auto">
								</li>
								<li>大多数自动化思维都是我们脑补出来的结果。主要是归因和认知偏差导致的。我们需要检验真实性
举例：在地上摔一跤，以为很多人都看到自己出丑了。其实没人在意。这是“自我中心”在捣鬼。
<b>自我中心</b>我们总以为自己是一切的中心，自己的一言一行，都会被别人注意到。尤其当自己犯了错，总觉得别人看自己的眼光，都带着一丝鄙视和揶揄。</li>
								<li>控制思维代替自动化思维
当你明确辨识出自己的“自动化思维”之后，对于其中一些无效的思维 —— 亦即于事无补，反而会影响工作和生活的思维，可以进行主动干预，尝试用正向的“控制思维”去取代。
如；要到周末了。汉腾突然在群里蹦出来，说要更正格式，要用MD语法。我们已经决定周末去哪玩了，于是现在感到非常难过。但是，你发现了吗：无论你是否沮丧，这项任务总是要完成的。你的沮丧不会带来任何正面作用，相反，只会干扰你的注意力，影响你的状态，让你耗费更多的时间。
所以，当你觉察到这一点，就可以尝试控制自己的思维，告诉自己：我应该想一想，有什么办法可以早点搞定。或者，我先做一部分，周五晚提交到GITEE，剩下的周日回来再弄？这样一来，无论结果能否实现，你都能够迅速摆脱情绪的影响，将精力投注在工作上。</li>
</ol>

					</p>
					<hr />
					<h2>公开医疗数据</h2>
					<p>
约翰·威尔班克斯：<em>“因此，您可以做一些非常简单和基本的 事情，并拍摄您的食物，如果有足够的人这样做，我们可以了解 我们的食物如何影响我们的健康。 这是一个有趣的事情 - 这是一款名为The Eatery的iPhone手机应用程序 -  我们认为我们的披萨比 其他人的披萨 更健康。好的？（笑声）这似乎是一个微不足道的结果，但这种研究 过去需要花费 数 年时间才能完成医疗系统和数十万美元。这是由几个人的创业公司在五个月内完成的。 我对此没有任何经济利益。”</em>
抓住数据废气，我们可以学到很多医疗知识。
分享数据也不是完全没有经济利益。人们加入分享中，也能获得项目里其他人的数据。这样有利于自家的病人，或是自己可以利用这些数据来开发新项目。
						</p>
					<hr />
					<h2>莫让法西斯主义让我们变成另一个人</h2>
					<p>
國家主義告訴我， 我的國家是獨一無二的， 且我對於我的國家負有特殊的義務。 相對地，法西斯主義告訴我， 我的國家是優越的， 且我對於我國家的義務是唯一的。 我只需要在乎我的國家， 其他人事物都不重要。
掌握资料的企业可以等同于政府。他们可以影响我们的感受，如恐懼、仇恨，和虛榮， 接著用這些感受從內部將民主給兩極化並摧毀。
如何影响我们的感受？
通过算法推荐。
<b>推荐系统</b>是一种信息过滤系统，根据用户浏览历史、社会方式和兴趣点等，推荐符合用户兴趣的产品或内容。
机器收集足够的数据，找到目标特征与标签的相关性形成模型，再经过训练验证测试，就能为用户推荐信息。
虽然我们对淘宝之类的软件给我们推荐符合心愿的产品，但是当面对的是媒体类的软件时，我们要辩证看待一个新闻或是观点。
</p>
					<hr />

					
					<ul>
						<p>参考资料</p>

						<li><a href="http://kns.cnki.net/KXReader/Detail?TIMESTAMP=636886026414057500&DBCODE=CJFQ&TABLEName=CJFDLAST2019&FileName=FBZX201905138&RESULT=1&SIGN=2zJtal%2bhk%2bEmfYq%2fF8mVY%2blfTB4%3d&UID=WEEvREdxOWJmbC9oM1NjYkdwUlVZM0RPajFOcVduNkVIbU12UXBzQXJRcHk=$R1yZ0H6jyaa0en3RxVUd8df-oHi7XMMDo7mtKT6mSmEvTuk11l2gFA!!&filetitle=%e6%99%ba%e8%83%bd%e6%9c%ba%e5%99%a8%e4%ba%ba%e5%b8%a6%e7%bb%99%e6%88%91%e4%bb%ac%e7%9a%84%e6%b3%95%e5%be%8b%e9%97%ae%e9%a2%98_%e5%88%98%e9%9d%99%e6%99%b4">知网：智能机器人带来的法律问题[登录后才可看]</a></li>
						<li><a href="http://www.360doc.com/content/17/0510/13/8250148_652674954.shtml">自动化思维如何影响你的人生？</a></li>
						<li><a href="https://baike.baidu.com/item/%E8%87%AA%E5%8A%A8%E5%8C%96%E6%80%9D%E7%BB%B4/441223">百度百科：自动化思维</a></li>
					</ul>



				</article>
			</div>
		</main>
	</div>

	<hr />
	<footer>
		G2000的TED talks笔记


	</footer>

	</div>
</body>

