'在21世纪坚定的基础上放置技术道德是什么意思?在这篇文章中,我使美德道德的案例提供了实用,人道的基础:它可以帮助我们仔细审查技术,部署和技术规则所需的价值;它可以通过更大的灵活性和忠诚来实现,而不是其他总徒伦理账户的体验。
您的论文的音频版也可用,由作者Tom Chatfield博士阅读:
将技术道德在21世纪公司基础上放置技术伦理是什么意思?在这篇文章中,我使美德道德的案例提供了实用,人道的基础:它可以帮助我们仔细审查技术,部署和技术规则所需的价值;并且它可以通过更大的灵活性和忠诚来实现,而不是除其他总体伦理账户。
我还认为美德道德可以帮助我们避免对技术讨论的某些类别的误差:提供伦理代码作为解决方案而不是诊断;在数据,代码和内部流程上聚焦太狭窄;通过误导中立性和必然性的误导性和侵蚀社会和政治背景。
没有中性工具没有这样的东西。进入车辆是以特定方式与地理的关系。为了缺乏一辆内置的车辆,明确地设计了他们的能力 - 无法在洛杉矶提供一辆汽车,说 - 是在一系列关于自由,空间和社会的一系列假设的尖锐结束时找到自己。
同样,为了拿起武器是通过填充潜在目标的世界。如果我在腰带上挖了一把枪,那么通过分析新实体“我和我的枪”能够和处置的方式,可以改变我和我与他人的关系。由于哲学家布鲁诺拉丁语在1992年的文章中放入了失踪的群众的地方?几个平凡的神器的社会学:
人与人和非石人,体现或无人能力,冒充或“加工”之间的区别不如完整的链条分布在哪个能力和行动的兴趣。
为什么这么重要?由于像“枪支不杀人,人们杀了人们的意图,那么技术本身就是中立的诱人的概念 - 这是一个工具只是一个工具,而重要的是它是如何使用的 - 都是太多经常诱发的为了探讨它所体现的假设和可能性,更不用说围绕它的规定,权力和利润的价值。
如果技术本身是中立的,那些使他们的人对使用它们的人没有特别责任(以及他们使用的人),除了确保某些质量和功能标准。如果最多可以说一个人的一个城镇,其中每个人都抱着一个突击步枪,这取决于他们负责任地使用他们的步枪,它意味着生活在一个致命力量是一个不断可见的前景的社区中的问题没有意义。
所有这些都可以表达的是希望人们使用他们的军事级武器的井 - 无论在明确杀死战斗中的人工制品的背景下可能意味着什么意味着什么。
谈谈技术中实例化的可能性,价值观和偏好是谈论经常被称为他们的承受者:一个由心理学家詹姆斯J.Gibson在1977年的纸张中创造的术语,以描述特定环境所呈现的行动的可能性。由于哲学家香农·沃尔罗·沃尔孔注释在2016年的书技术和美德,承认和分析技术的可取性是一个古老的挑战 - 但是今天有一个新颖的,紧迫的因素:
弓箭的发明得到了我们从安全距离 - 或对人竞争对手进行安全距离杀死动物的可能性,这是改变社会和道德景观的新带来。今天的技术开辟了自己的新社会和道德可能性。实际上,人类技术活动现在已经开始重塑了使生活成为可能的行星条件......我们在技术背景下的汇总道德选择经常影响到地球的另一边的人们的福祉,以及其他物种的交错数量整个世代尚未出生。同时,越来越清楚我们的物种的未来良多劳动越来越少。
特别是,探索这种道德劳动力的大屠杀性质 - 从不同技术的设计,调节,使用和利用各种技术之间的责任扩散 - 这是技术中立神话和第二种相关误差的重要纠正措施作为创新的确定性账户所谓的。
技术决定论是基于索赔,即新技术更不可避免地带来了一系列固定的行为和结果,而那么 - 借用另一个哲学家的借来的短语,LM Sacasas-'Resistance是徒劳的挑战这些。
Sacasas本人借用不少的权威的短语,而不是明星跋涉:下一代,这是博格集体的战斗哭泣,一种机器人文明,其使命是使所有其他生命形式的兴趣形成所有其他生命形式。 “抵抗是徒劳的!”它的无人机重复,因为他们试图灭绝每种形式的意识和自由的自由。当然,他们错了:如果抵抗确实徒劳无功,星际迷航宇宙就不会有很多乐趣。但他们的险恶傲普里斯是一种友好(和奔放的沉重的沉重的)隐喻,用于所有坚持技术的思维集,作为一种命运的形式。随着SACASAS的说明,为了识别和反对他所谓的“Borg Complex”的技术分析模式是宣传知识自由的道德意义 - 以及对我们的创作负责:
Marshall Mcluhan曾经说过,“绝对没有不可避免的是不可避免的,只要愿意考虑发生的事情”。我叫做博格综合体的漫长的言论被坚决反对在技术以及其后果时这样的思考。我们需要更多的思考,不少,而Borg复杂的言论通常部署以停止而不是提前讨论。更重要的是,博格综合言论也达成了拒绝责任。毕竟,我们不能对不可避免的事情负责。
关于技术中立性和必然性的神话的最奇怪的事情之一是,即使他们直接相互矛盾,它们通常会在一起。要说一个工具是中立的,就是说,它的用户对与之完成的事情承担责任,大概是在这是他们的自由选择。相比之下,要说技术有一个内部逻辑,要求某些结果是说人们最终不能选择如何使用它 - 这是愚人节的普通话。然而,这种决定性的修辞经常在用户赋权时具有喇叭花的鸠尾。作为Evernote,Phil Libin的首席执行官,将其置于2012年的访谈(在他的着作中突出):
我实际上非常乐观地讨好谷歌眼镜 - 其他公司的那些公司的人......我自己用了一点点,而且 - 我从现在开始的三年是一无所获的预测不会望着世界上没有关于他们的信息的眼镜。这将似乎没有那种东西。这将是普遍用例。它将是主流。人们认为它看起来很愚蠢,但这种经历是如此强大,你一旦你脱掉眼镜就会感到愚蠢......
这太容易发挥了挖掘的游戏,这是一个没有成真的预测。但是,讲什么是libin的论点是它的人类欲望和技术可能性,就像同一个硬币的双侧一样。谷歌玻璃提供了如此伟大的体验,任何人都会使用它,似乎不可避免地想要继续使用它。否则将成为“野蛮”:它意味着在技术文明的宏伟进步之外存在。
在最好的新达尔文风格中,这种框架表明,技术的权力将迟早将其提出与自由选择的结果同义(而且这种选择因而在随着时间的推移汇总人类行为时是一种幻觉)。人们在预定的主要统治的产品和平台之前,人们的机会更有机会:阅读历史的阅读,如果你忽略了各种创新的围绕围绕着名的分支可能性,辩论,重新思考和影响,那么唯一合理的历史。
这些中立的神话和不可避免的生活问题不仅是因为当他们达到任何选择的代理和责任就比'我要安装的哪个应用程序达到了更多的基本时,而且因为这样做,他们通过这样做,他们否定了任何基础不是基于专家屈尊屈服的技术(请发明伟大的创新,这些创新将不受欢迎地拯救我们!)或个人责任的概要理解的理想。
在每种情况下,旨在成为伦理的婚姻的言论几乎不仅仅是一厢情用,我们居住在一个世界中,我们生活在技术背景下的汇总道德选择的复杂性的借口可以作为非问题或个人攻击优先。
替代方案是什么?它始于密切关注实际发生的事情。
靠近2018年的2018年初学者人类的开始,法律教授Brett Frischmann和哲学家Evan Selinger在俄克拉荷马州塔尔萨塔尔萨罗伯特大学的“技术 - 社会工程”中探讨了他们的榜样。 2016年,该大学向学生提出了要求购买和佩戴用于体育课程的Fitbit跟踪设备。此前,学生在期刊中自我记录了日常活动。现在,这些活动将由其设备自动记录。
有关学生在此跟踪的知情同意,如何存储数据,以及依据。这一旦明确就逐渐消失,大学提供了充足的保障措施。一种监控只是被另一个监测所取代:通过自动跟踪和录制来钢笔和纸张技术。谁,在这一天和年龄,会认真暗示事情应该有所不同?事实上,谁会否认菲特提供比期刊更详细和更可靠的数据,更方便地做到这一点?
Frischmann和Selinger不在哀悼钢笔和纸张中的业务。但是,通过挖掘旧的和新方法的不同可供选择,他们无法解除一些重要的复杂性。对于开始,他们认为积极记录观察和被动被监控之间存在深刻的心理差异:
在日志中记录日常体育活动的学生发现模拟中等提供了几个需要时间和努力,规划和思考的步骤。它可以以自动化和不反思的铭文机永远不会做的方式创新学生以创新健身数据。媒体向内引导学生注意力和向外,记录的数据可以透露超过眼睛。
对于Frischmann和Selinger,这是这种主动/被动的区别,而不是任何特定技术的存在,也不是那么重要。有什么股份是某种伦理或一组价值观:
思考和记录活动激发了自我反思,人际关系意识和判断。这些活动是有价值的,因为它们与自由意志和自主权的行使相关联...技术社会工程更好的人类可能会更严重地撒谎。
在两个段落的空间内,我们从学生们在期刊上撰写的描述中搬到了与“更好”的人类相关的价值观的讨论。这举动了吗?我建议的答案是一个强调的是 - 而且对于将这种道德费的索赔的滞留性更为重要的是的,这一点更为重要,而且更频繁地被视为能够的技术的效率的次要例子。
为了了解为什么,我们不需要考虑学生的行为和选择,也需要伴随他们的义务和期望。要询问某人使用可穿戴设备,请询问他们同意观察过程,将自动生成有关日常活动的详尽令人详尽的数据。一旦他们同意,他们将成为一个系统的一部分,如果它按预期工作,则需要从他们超越默认的情况下几乎没有。相比之下,要求他们记录自己的行动意味着要求他们踏上自我观察的过程 - 并信任他们努力这样做。第二个情景不仅需要实际努力,还需要vallor强调的道德劳动力:在抵制诱惑或制作结果的同时,准确和诚实地执行任务。
特别是在教育的背景下,询问这些方法中的所有学生鼓励某人的哪种学生是合理的 - 以及他们建议他们将被评估的标准。
是一个有信任的人,负责持续自我评估的好学生;或者是某人的舒适性和便利是最好的,不引人注目的自动监测(谁不再有选择跳过他们的日常运动)?您可能会回复最现实的答案是“有点答案” - 但这并不明显两个选项都在提供。
这样的选择的含义远远超出了他们的即时背景。什么样的人是被鼓励通过建议持续的教育系统进入的学生,自动化监测是世界的必要特征?一个社会将这种监视纳入教育面料的情况可能意味着什么;对于学生在自动报告其行为或不成时的设备上执行所有学业;或者对于面部识别系统实时追踪教室的注意力?
这些情景都不是假设的。以下是2012年9月20日在2020年9月向副杂志的主板网站报告了WAIDDD羽毛和Janus Rose在越来越多地使用“数字预订”软件,以监控一些美国学院的学生:
该软件将学生的计算机转变为强大的Invigilators-WebCams监视器眼睛和头部运动,麦克风记录在房间内的噪音,并且算法记录一个测试接线员移动鼠标的频率,请在页面上上下滚动,然后按下键。软件标记其算法认为可疑的任何行为是课堂教练的可疑。
凹陷虽然它可能听起来很清楚,但这些工具的广泛采用有明显的原因。 Covid-19大流行导致远程学习和评估的快速增加。这反过来左转大学努力监测家里的学生的意义,以防止在大规模规模上复制和欺骗,并提出可衡量的代表出席和参与。
只要软件负责任地部署,你可能会说,肯定是勤奋,无辜的无所畏惧?随着主板的账户建议,这项防守始于创始人一旦远程技术的可供选择,就会更仔细地审查。在旨在监控在线考试的媒体软件的情况下,例如,由于某些面部识别系统反复分类那些皮肤较深的人,因为太令人忍受了认识。同样,互联网联系,残疾,焦虑,adhd或居住在依赖的近距离的学生更有可能被标记为“可疑”,因为他们的凝视,键盘和鼠标使用,他们的物理环境,登录时间,等等。
在这种情况下,自动化系统的假设是有意和“正常”的假设不能与关于21世纪教育的性质的更大问题,或者确实在21世纪的社会中的成员资格。作为Sureauger,图书馆员和Auraria图书馆的讲师,将它置于2020年4月的混合教育学文章:
作弊正在上升,我们不能相信学生,以及保护学术诚信的最佳策略是投资大规模监控系统。至少,这是叙述,即迎合高等教育的Ed-Tech公司根据他们的产品和营销活动销售......如果我使用算法测试Proctor进行测试,它将我的身体编码为正常或可疑以及我的行为和安全或威胁。作为一种Cisgender,身体健全,神经典型的白人,这些技术通常将我的身体分为正常和安全,因此,他们不会危及我的教育,福祉,就业或学术身份。我校园里的大多数学生都不分享我的身份,并且可以通过测试算法算法读取非常不同的体验。
随着供应商所指出的,大学没有义务以任何特定方式使用此类软件,或者实际上。但它的存在体现了一系列强大的信任,隐私以及学习和成功作为21世纪的学生意味着什么的强大激励和假设。和关键 - 它不是那里的唯一模特,要么用于教育或技术。存在替代实践,方法和态度;许多学生和教育工作者花了2020年,主张他们的道德和实际优势。
即使监测系统可以无缝,有效地工作,有效地(这似乎不太可能),对社会提交的是教育,就业或公民生活的模型意味着什么意味着什么?正如Evan Selinger和哲学家Evan Greer,将它置于2月2020年2月的文章警告,以便在大学校园部署面部识别技术(即将探索预言即将有警告):
鉴于[校园面部识别]技术可以使用和向现有相机添加其功能的方式,任何部署都将使我们敏感的生物信息交给私立机构的实践来使其成为私人机构的努力。[此外]面部表征倾向于被垃圾科学向教育风险纳入教育,并青睐教学过度减少的教学方法......实际上,广泛面部监督的前景将对校园表达产生令人不寒而栗的影响。害怕自己和表达自己的学生将从关键的机会退回,以体验知识分子的增长和自我发展 - 来自边缘化社区的学生将受到最受影响的影响。
社会,这种软件是一个动作,Covid-19 Pandemase在经营和休闲到处加速了治理和管理:以安全性和便利性的名义朝着训练和算法数据处理的正常化;走向效率和简单的优惠,潜在审查的偏见或明确的剥削动机可能会潜伏;并朝着用户自己理解的基本不对称与别人的缺点
......