<!DOCTYPE html>
<html lang="en-US">
	<head>
		<meta charset="UTF-8">
		<meta http-equiv="X-UA-Compatible" content="IE=edge">
		<meta name="viewport" content="width=device-width, initial-scale=1">
		<link rel="stylesheet" href="assets/main.css">
	</head>
	<body>
		<header class="site-header" role="banner">

			<div class="wrapper">


				<a class="site-title" href="/"></a>


				<nav class="site-nav">
					<input type="checkbox" id="nav-trigger" class="nav-trigger" />
					<label for="nav-trigger">
						<span class="menu-icon">
							<svg viewBox="0 0 18 15" width="18px" height="15px">
								<path fill="#424242" d="M18,1.484c0,0.82-0.665,1.484-1.484,1.484H1.484C0.665,2.969,0,2.304,0,1.484l0,0C0,0.665,0.665,0,1.484,0 h15.031C17.335,0,18,0.665,18,1.484L18,1.484z" />
								<path fill="#424242" d="M18,7.516C18,8.335,17.335,9,16.516,9H1.484C0.665,9,0,8.335,0,7.516l0,0c0-0.82,0.665-1.484,1.484-1.484 h15.031C17.335,6.031,18,6.696,18,7.516L18,7.516z" />
								<path fill="#424242" d="M18,13.516C18,14.335,17.335,15,16.516,15H1.484C0.665,15,0,14.335,0,13.516l0,0 c0-0.82,0.665-1.484,1.484-1.484h15.031C17.335,12.031,18,12.696,18,13.516L18,13.516z" />
							</svg>
						</span>
					</label>

					<div class="trigger">





						<h1 class="title page-title">人工智能与大数据：谁玩得起</h1>


						<blockquote>
							有决定权，就要负成败之责。

							要是我们决定权外包给机器了呢？

							“我们不能将我们的责任外包给机器”</blockquote>

						<h3 id="人工智能不会给我们一张免责卡。">人工智能不会给我们一张免责卡</h3>





						<p>
							<b>人类本身就是带有偏见的</b>，在招聘时为了公司的利益，人们倾向于招聘男性而不是可能因为各种假期影响工作效率的女性；热衷于招纳重点大学的优秀毕业生，而免去实力的考察直接把其他普通大学的学生拒之门外；机器用来学习训练的数据恰恰是我们这些带有偏见的人的一举一动所产生的数据，如图费・克奇所说，<b>如果数据本身就带有偏见，这些系统会继承我们的偏见，并把它们放大，然后反馈给我们</b>。可笑的是，我们还振振有词的声称“我们只做客观、中立的预测”。
							显然，是我们本身的道德偏见导致了这些问题，而不是机器的问题。</p>

						<p>
							我们使用计算机已经有很长一段时间了，许多人从利用机器智能做决策中尝到了大数据的益处，这无疑增加了人们对于机器分析决策的信赖，甚至造成人们对于人工智能的盲目崇拜。现如今，<b>机器决策越来越多的被运用到复杂的人类事物上，而把这些没有统一清晰判断标准的问题完全交给机器来决策，真的可以吗？</b>演讲者所列举出的种种事实给了我们答案：不可以。<b>智能机器的确极大的提升了我们处理数据的效率，在很大程度上给我们的生产生活带来便利，但大数据的运作有时候是我们无法理解的，为了规避“黑盒子”的风险，算法需要被监测，需要变得公开透明</b>。当我们利用大数据做决策时，应该意识到，<b>机器提供给我们的只是参考答案，并非最终答案</b>，最终的决定权应当在我们手中，而不是机器。</p>

						<blockquote>数据科学家<b> Fred Benenson</b>称之为<b>“math-washing”</b>。 我们需要是相反的东西。 我们需要培养算法的怀疑、复查和调研能力。 我们需要确保有人为算法负责，为算法审查，并切实的公开透明。 我们必须认识到，
							把数学和计算引入 解决复杂的、高价值的人类事务中， 并不能带来客观性，相反，人类事务的复杂性会扰乱算法。</blockquote>



						<p> 因此，我认为无论任何时候我们都不应该把责任推给机器。人工智能是我们制造的，因为我们的不完美，他们也不完美。<b>是我们给他们这些没有怀疑和复查能力的算法，我们把机器提供的答案当作正确答案，自然也是我们要对此负责</b>。

							<h3>让我们分享医疗数据</h3>

							<blockquote>大数据，取之於民，用之於民</blockquote>

							<p>第三位演讲者<b>John Wilbanks</b> 提出了一个非常有意义的观点, <b>以医学发现为目的，收集利用公共数据, 将有利于我们所有人</b>。此外，他还讨论了患者隐私和知情同意的伦理和程序影响,
								并就如何以道德方式获取和使用信息提供了解决方案，他提议，我们要去收集身后的灰尘，要去得到体内的基因型，要去医疗机构得到我们的记录，然后大家一起建成一个<b>公共数据库（commons）</b>，用个人利益换取大众利益，我们会通过合法的标准化工具与技术资源参与进去。</p>

							<p>我十分赞成分享医疗信息的做法，这将有利于医学研究, 并有助于更高效的发现一些相关性。然而,
								要实现这样一个目标，现阶段来说也许情况并不是这么乐观。<b>大数据时代，告知与许可、模糊化、匿名化这三大隐私保护策略都失效了，在这样的情况下，要如何在保护好信息分享者个人隐私的前提下使用他们的数据呢？</b></p>

					</div>
					<script src="https://cdnjs.cloudflare.com/ajax/libs/anchor-js/4.1.0/anchor.min.js" integrity="sha256-lZaRhKri35AyJSypXXs4o6OPFTbTmUoltBbDCbdzegg="
					 crossorigin="anonymous"></script>
					<script>
						anchors.add();
					</script>
					<p style="text-align:right">Written by <a href="https://gitee.com/HyolynJang">Hyolyn</a></p>
	</body>
</html>