威廉·吉布森(William Gibson)曾经说过,未来已经在这里-只是分布不太均匀。
这也适用于问题的解决方案,比如在广泛的讨论中找出谁在说实话。根据吉布森的格言,我们应该期待找到解决方案的不同部分,但不是在一起,而且可能在各种意想不到的地方。这取决于我们把它们都找出来,然后把它们组合在一起。
乍一看,找到真相似乎是一个邪恶的问题,它实际上更像是一种纵深防御,像保护言论自由这样的限制变成了过滤掉不起作用的方法的方法。
我们从古希腊人开始就这样做了,而另一方一直在反击:例如,诡辩派让雅典政府处决了苏格拉底。
我之前在博客中写过关于其中一个部分,纳斯达克是如何处理他们交易所的非法和仅仅是不正当的股票交易的。
再者,他们工作的基础是法律:偷窃股票是非法的。撒谎煽动骚乱也是违法的。然而,这两种情况都不是特别常见。更常见的是诚实的错误或热情的错误陈述。
下一层“向上”是所有交易员签署的成为交易所会员并进行股票交易的协议。它规定了规则,这些规则就像城市附例一样,必须符合基本法。
如果有人做了不正当的交易,可以第一次警告他们,第二次处以少量罚款,第三次处以巨额罚款。从历史上看,前两种情况占大多数:只有极少数人实际上是搞股票骗局或试图操纵选举的邪恶天才,
此外,监管贸易的工作被分成几大块,交易所一开始规模很小,经常发生事故。他们把这些从严重的邪恶中分离出来,并根据某些东西是难发现的还是容易发现的依次对其进行细分。
他们最大的优势是桌上有钱,而且人们已经同意了规则。抓捕和罚款骗子和小丑让它自己付出了代价,这使得他们的方法本身就可以被像“货币化”的YouTube频道这样的赚钱操作所利用。
以上所有这些都适用于寻找谎言,除了钱。这使得从小事做起,而不是试图一下子煮熟整个海洋变得加倍重要。
一旦发现一些不受欢迎的东西,比如煽动谋杀的狗口哨文章,就可以找到所有的副本,加上所有的点赞和所有的分享。甚至可能包括所有看过它的人。
这让一小部分员工可以处理广告商的大量工作,或者是迅速扩张的“病毒”迷因。
幸运的是,机器学习(ML)可以被训练成识别被禁文章的次要变体,并将它们推荐给工作人员,以确保这是被识别的。这些内容可以按照与原始帖子相同的方式处理。
但我们如何才能及时可信地识破谎言呢?一个网站能够负担得起的团队总是会落在后面。
这解决了一个遥远的相关问题,这个问题和监管股票交易一样出人意料地有帮助。
历史较长的大型讨论小组之一Slashdot自1997年成立以来,就需要与过于热情的评论员、煽动者和巨魔打交道。在2020年,仍然很容易“4、5岁阅读”,并看到对一个困难的主题进行有节制、合理和内容丰富的讨论。或者,你可以“在-1阅读”,倾听那些在其他地方会淹没有洞察力的评论的疯子和煽动者的话。
这个网站是由评论员作为主持人的系统驱动的。如果你的评论被审核为信息量大、有洞察力或有趣,你就会得到因果报应,并会得到10到15个版主点数。有了它们,你可以给好的帖子加分,每条评论加1分,把不好的帖子记下来。节制的种类从“有洞察力的”和“见多识广的”,到“低估”和“高估”的,再到“巨魔”或“火药饵”,不一而足。
作为对版主的检查,任何人都可以“元版主”,并就版主是否公平进行投票。
当然,你不能为了避免自私自利的行为而适度地评论你对自己评论的文章。
读者可以设置他们想要查看的质量级别,从-1到5。“四点阅读”将向你展示备受推崇的评论,评分为4到5分。
从那些被同行评为诚实的人类评论员开始,给他们每人打几分,从“优雅地论证真相”到“狡猾的言辞”或“公关”,再到“不合逻辑”、“歪曲”、“诡辩”或“直接撒谎”。
允许任何人对版主进行管理,并禁止对同一篇文章进行审阅和评论。
现在,将主持人的意见反馈给人类工作人员,他们充当审核员,而不是主持人。
如果审核员同意一项声明是狗口哨,就使用自动化来标记它,并在其他帖子中寻找相同的“含蓄言论”的其他例子。
把这些候选人反馈给审计师,以防止ML把自己变成巨魔!
对于人类,审计师可以警告和教导诚实的错误,尽管仅仅是缓和一下就可以缓和过度的热情。如果他们做不到,他们的会员资格可以被暂停,在极端情况下,他们可以被移交给警方。
这就是我的三部分作文:我相信还有更多我从未听说过的。
让人类保持诚实,把诡辩派扔到桥的一边,扔给巨魔。