都是训练数据:利用机器学习的经验重新训练你的思维

2021-07-24 01:15:54

在我攻读博士学位的第一年,我开始了创伤康复治疗以从家庭暴力中康复。它主要由称为“再处理会话”的东西组成;使用一种叫做 EMDR 的技术,我们将重温我生活中的创伤记忆,并试图弄清楚我有哪些与这些事件相关的信念。我们所有人都带着对将要发生的事情和我们是谁的信念在世界上穿行。诸如“我不能相信任何人”之类的信念可能来自人际关系中的负面经历。 “我不够好”可能来自于多年来贬低自己并与他人比较。 “一切都糟透了”可能来自一切事物的悠久历史,嗯……糟透了。创伤康复治疗的目的是让我可以重写我的故事,向前迈进,而不是被我过去的经历所削弱。虽然我们过去的经历肯定会影响我们对世界的信念,但有时它们是无益的。如果我们看到不健康的人际关系模式,或者在学校被欺负,或者不得不成长得太快,或者过早失去某人,或者从未在媒体中看到自己:所有这些都是影响我们以后信仰的创伤形式线。想象一下,你可以收集你曾经拥有的每一次经历;你在镜子里对自己说的一切,你被告知的一切都是“正确”的生活方式。作为机器学习科学家,我们知道训练数据可以成就或破坏您的模型。你从哪里得到数据,它有多大的偏差,它是什么时候采样的,它是如何分类的。当我们试图建立一个可概括的世界模型时,我们会考虑这些问题中的每一个。那么为什么我们不对我们的个人历史应用同样的担忧呢?很多时候,我们对脑海中说我们不够好的声音给予了不成比例的重视。我们无意识地这样做,从来没有调查过数据来自哪里,也没有费心更新数据库。当我们在一生中吸收数据时,我们会在大量经验的基础上构建模型和启发式方法,以告知我们下一步该做什么。虽然我们当然已经学会了像不碰热炉这样的基本模型,但我们是否学会了如何增强自己的能力就不太清楚了。如何应对生活压力;如何与他人沟通;如何发现我们的真实身份。当我经历家庭暴力和虐待的痛苦经历时,我开始了关于改进机器学习教育的博士研究。一直激励着我的想法是,当我们被包含在数据中时,我们学得最好;当我们有一些与自己相关的东西时。当我们积极参与数据生成过程时,我们可能会更了解算法。所以我开始研究使用个人数据进行机器学习教育的主题。当我们探索我们自己与数据的联系,我们自己在算法系统中的经验时,我们会自动进行自我反思的过程。当我与其他人一起教他们算法如何影响我们时,我正在努力通过创伤恢复重新训练我自己的世界模型;虐待不是爱。我值得更好的。我现在很安全。我被允许收回我自己的力量。我目前正在编写一本名为 Life Lessons from Algorithms 的书,这是一本通过不同机器学习算法展示的个人弹性历史。每个机器学习概念都可以教会我们一些关于我们自己的康复的东西。 “垃圾进,垃圾出”告诉我们,不健康的关系会影响我们未来期望得到的待遇。 “没有免费的午餐”告诉我们,每个人的旅程都是不同的,对一个人有效的方法并不对每个人都有效。过度拟合的倾向告诉我们,我们需要广泛的经验、信仰、哲学和友谊才能真正教会我们关于世界的知识。集成方法告诉我们,有时两个头确实比一个更好。维度诅咒告诉我们,我们永远无法将所有事情都考虑在内,作为人类有一定程度的信仰。

例如,考虑梯度下降。当我真的陷入困境时,我有一个人生箴言:“做下一件正确的事”。这意味着当我因自我怀疑和不确定性而螺旋式上升时,我需要停止想象我面前的整个未来,而只需专注于我可以做的下一件事情。我们不可能知道将要发生的事情;我们只能采取下一步行动。我们心中有一个目标:找到一份新工作、坠入爱河、变得健康……或者永远转瞬即逝的“快乐”。我们所能做的就是努力朝着正确的方向迈出一步。对于那些不熟悉梯度下降的人来说,它是一种用于获得“最佳”结果(通常称为最小值)的优化算法。该算法从参数空间的初始点开始,并迭代地“向下”或朝着我们希望的最小值前进。从字面上看,它是做下一件正确的事情,直到它收敛到性能良好的参数集为止。就像在生活中一样,有时事情必须先变得更糟才能好起来。朝着正确方向迈出的一步可能会让我们陷入不再为我们服务的工作、关系或日常事务中。梯度下降(以及许多机器学习算法)对此有一个特殊的解决方案。每隔一段时间,算法会在一个全新的地方随机重新启动,以防万一有更好的东西,它无法通过简单地向下倾斜。在生活中,有时我们需要信仰的飞跃。有时我们需要从头再来,找到最适合我们的。我们的每一次旅程都是意外、幸运、支持、爱、失落、喜悦和一点点魔法的结合。我们所能做的就是保持头脑清醒,不断朝着梦想的方向前进,时不时地向未知领域迈进。希望一路走来,我们找到了自己。 Yim 是华盛顿大学的博士生,研究教授机器学习的创新方法。他们对社交媒体上广泛传播的算法素养特别感兴趣,目的是创建工具,使用户能够在算法持续造成伤害时为自己发声。他们是非二元的,是家庭暴力幸存者的倡导者,他们有幸患有自闭症! Yim Lucky Register,“这都是训练数据:使用机器学习的经验教训重新训练你的思想”,梯度,2021 年。@article{register2021trainingdata, author = {Register, Yim Lucky},title = {It's All Training Data: Using Lessons from Machine Learning to Retrain Your Mind}, journal = {The Gradient}, year = {2021}, howpublished = {\url{ https://thegradient.pub/its-all-training-data/} }, } 如果你喜欢这篇文章并想了解更多信息,请订阅 Gradient 并在 Twitter 上关注我们。