<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8"> 

<style>
h1
{
text-align: center;
text-transform: uppercase;
color: #255f25;
}
p
{
text-indent: 50px;
text-align:justify;
letter-spacing:3px;
}
a
{
text-decoration:none;
}
</style>
</head>

<body>

	<h1>机器学习化下的道德坚守</h1>
	<div class="right" style="width:40%;margin:0 auto">
<p>大数据时代下，数据库要求已部分舍弃了精确性而要求混杂性。而在图费·克奇的演讲中得知，这种混杂性也会产生一系列的问题。例如，数据子程序的堆积会导致数据出现错误；其次还有平台与个人数据的问题。例如公司招聘系统，算法通过对个人的提前预测干预，复制已有的优秀员工，认为这更加客观，但事实上这具有一定的时间差，并存在着浓烈的主观性。机器用我们真实的行为数据来训练，反馈我们的偏见，继承并放大后反馈给我们，等同于机器创造了一个“新”的社会。 <br>
    &nbsp;&nbsp;&nbsp;&nbsp;除此之外，机器学习化会导致系统性的算法偏差，而不是内容偏差。例如Facebook的算法推荐，它埋没了重要但艰涩的新闻，这表明人类事务的复杂性会影响算法。其他更好的例证还有犯罪预测，算法根据黑人与白人的种族差异判断其犯罪的可能性，结果却与现实存在巨大差异，而平台则将责任推卸给了算法，这无疑是不负责任的。我们无法将责任推卸给算法，这不仅要有人负责，同时平台更应培养算法的怀疑、复查和调研能力。是的，我们需要计算机为我们做出更好的决策，但我们也需要在判断中加入道德义务，坚守人类的价值观和伦理。<br>
    &nbsp;&nbsp;&nbsp;&nbsp;AI与大数据时代下，一定的道德坚守更有利于我们理解数据，不是认为我们看到的片面数据让我们更成功、更舒服，而是发现数据中的偏见与事实，从而发现错误的数据。锻炼我们的批判性思维能力，这不仅仅是坚守我们的道德，更是大数据时代下我们所必备的信息筛选能力的体现。<br></p>
</p></div>

</html>