Press "Enter" to skip to content

为何说时代科技正走向“邪恶”?

据SlashGear报道,邪恶的机器人、死亡射线和转基因怪物只是科幻小说中技术出现致命错误的几个例子。这是科幻小说的主要内容,也是我们通过娱乐对我们与技术的关系进行心理评估的方式之一。然而,在现实生活中,技术应该使我们的生活更容易。每一项新的发明或创新表面上都减少了我们需要做的工作,或使日常活动更加方便。

访问:

飞机的发明允许在地球上的任何地方(或大部分地方)快速进行国际旅行。互联网使我们能够即时分享信息和相互沟通,无论我们碰巧在哪里。全球定位系统(GPS)释放了我们手套箱中的空间,结束了乘客在公路旅行中处理笨重的地图册的时代。世界在前进,事情变得更容易–直到他们不这样做。

有时,无论是由于技术本身的问题,恶意的意图,还是用户的错误,技术完成了许多人们从未预期的事情。从最严格的意义上讲,技术可能并不真的是邪恶的,但每当这个时候,它肯定会表现得像邪恶。

Alexa建议女童“用硬币接触半插入的充电器”

这场大流行让我们在家里的时间比平时多,而且我们中的一些人还有孩子需要照顾。有时,这意味着你最终会退而求其次,你开始向你的虚拟助手寻求帮助。

2021年12月,一位母亲和她十岁的女儿在家里,他们开始向Alexa询问他们可以完成的挑战,以打发时间。Alexa建议他们把充电器的一半插入插座,然后用硬币碰触暴露在外的部分。幸运的是,母亲进行了干预,孩子很聪明,没有听从Alexa的可疑建议。

虚拟语音助手的部分工作是通过梳理互联网对搜索词的流行反应,他们用友好的声音传递或以其他方式在屏幕上显示文本。不幸的是,这意味着有时它可能会提供不受欢迎的信息,如果这个结果足够受欢迎,在搜索排行榜上名列前茅。亚马逊迅速修补了其服务,以防止将来出现这种建议。

机器人致人死亡事件

从《终结者》到《黑客帝国》,杀人机器人是反乌托邦科幻小说的主要内容。我们倾向于把机械杀手想象成来自未来的先进机器人,而不是1970年代的工厂车间工人。在这种情况下,现实比虚构更奇怪。

Robert Williams 是福特汽车公司的一名工厂工人,在工厂车间与一个自动机器人一起工作。1979年1月25日,他成为与机器人共同工作过程中的第一个死亡者。这台一吨重的自动化机器的工作是将零件从机架上移到工厂的其他地方。正如吉尼斯世界纪录所解释的那样,Williams注意到机器人运行缓慢,于是自己爬到机架上抓取一些零件。这时,致命的事件发生了。

机器人手臂击中了Williams的头部,导致他死亡。随着自动化变得更加普遍,人类和机器占据同一空间的可能性增加,需要具有更高的空间智能的机器人将变得至关重要。科学家们正在努力开发具有人类水平的环境意识的机器人,这不仅会增加他们能够完成的任务数量,而且会使他们更加安全。

种族主义和性别歧视的算法

机器学习在我们生活中的存在感越来越强。复杂的算法代表我们做出决定,我们应该在什么餐馆吃饭,我们应该消费什么娱乐,以及在交通堵塞时我们应该转到哪条街。

公司和组织用它们来决定他们所照顾或雇用的人,这就是事情开始走下坡路的地方。就像许多技术一样,它们只和制造它们的人一样好。这意味着技术,也许特别是智能技术,预装了固有的偏见。这不一定是创造者的意图,但这并不能阻止偏见的存在。

面部识别算法以显示基于种族和性别的偏见而闻名,要么根本不识别人,要么做得很差。根据哈佛大学的研究,一些算法在负责识别皮肤较黑的女性时,与皮肤较白的男性相比,错误率高达34%。当执法部门使用面部识别来对个人作出决定时,这就成为一个问题。

旨在做出医疗保健决定的算法也存在类似的问题。正如《自然》杂志所解释的那样,美国医院使用的一种算法被发现对黑人患者有歧视,在某些治疗或项目中优先考虑白人患者。

这些偏见的存在是我们需要承认并努力解决的问题。

自动化导致了更高的死亡率

随着工作场所自动化程度的提高,在机器人手中的死亡或创伤并不是与公共健康有关的唯一担忧。最近发表在《人口学》杂志上的一项研究概述了自动化间接影响周围社区的死亡率的方式。

研究人员发现,自动化率和所谓的"绝望的死亡"之间存在关联,包括自杀和药物过量。尤其是中年人,当自动化进入他们的行业时,他们的痛苦最大。

确切的机制并不完全清楚,但人们认为,收入和医疗保健的损失,加上就业机会的减少,导致更高的绝望率,最终导致死亡。虽然机器人并不是这些死亡的直接原因,但它们是技术增加的后果,而对其后果没有明确的认识。

研究人员呼吁政府改善社会安全网和更好的减少药物滥用计划,以减轻自动化的影响,因为我们继续过渡到一个日益自动化的经济。

加密货币的环境影响

加密货币是那些将人们过滤成两个阵营之一的话题之一。有人称它是未来的货币,将我们从中央银行中解放出来;也有人认为它是一个骗局,利用希望迅速致富的人。随着在类似于加密货币的框架上运作的NFTs的兴起,这一对话再次获得了热度。时间会证明这些结论哪一个是正确的,但与此同时,有一件事是非常清楚的。加密货币正在对环境产生重大影响。

加密货币将其所有交易存储在区块链中,挖掘加密货币需要完成复杂的计算,从而验证这些交易。这一切都有点复杂,但其结果是,像比特币这样的加密货币的挖掘会消耗大量的计算能力和电力。

根据剑桥大学的一项调查,全球比特币挖矿每年大约消耗121.36兆瓦时的电力,比阿根廷整个国家的用电量还多,而且能源成本平均每年都在上升。

diving-squeeze-1648759618.webp

潜水挤压伤

今天,如果你想进入深海,你可以选择,而且大多数是相当安全的。个人潜水艇和水肺潜水装备让业余爱好者也能享受深海的美丽和奇迹,但所有这些技术都是建立在大量的创新和一些可怕的错误之上。

在现代水肺潜水装备发明之前,想在水下长时间旅行的人依靠的是潜水头盔,头盔上有连接到水面的管道。这些管道提供了稳定的可呼吸空气供应,但如果出了问题,它们也是快速和暴力死亡的来源。

正如《潜水训练》杂志所解释的那样,早期的潜水头盔的气管上没有止回阀。在1839年开始打捞皇家乔治号的过程中,一名潜水员的软管被切断,导致了第一个被称为潜水员挤压的现象的记录。当软管被切断时,潜水员周围的压力迫使所有的空气通过软管上升。压力的快速变化造成了创伤和出血,但潜水员幸存下来。

在更极端的情况下,压力变化可以去除软组织,并将潜水员的身体拉到头盔里,导致在深海中迅速可怕的死亡。

when-computers-almost-started-a-war-1648759618.webp

当计算机差点引发战争

在冷战的高峰期,美国政府对导弹预警系统非常感兴趣,该系统至少可以对另一个国家的来袭作出一些提前通知。

他们建造了预警系统,并开始进行培训和演习,为他们希望永远不会到来的那一天做准备。然后,在1979年11月9日,国家安全顾问Zbigniew Brzezinski在凌晨3点接到一个电话,告诉他预警系统探测到250枚来自苏联的导弹。几分钟后,情况恶化了,另一个电话告诉Brzezinski,导弹的数量现在是2200枚。

在只有几分钟的反应时间里,Brzezinski正准备给总统打电话,启动报复性攻击,这时第三个电话打进来了。这是个假警报。有人把训练演习的磁带装进了实时系统。这个错误被发现了,因为其他警告系统都没有亮起,但如果几分钟后才被注意到,美国可能会在无意中与苏联开战,这都是因为一盘磁带被输入了错误的计算机。

一位女子跟随导航冲入湖中

全球定位系统(GPS)是一个复杂而先进的地图系统,利用地球同步轨道上的几十颗卫星来确定你与世界其他地区的位置。与过去的纸质地图相比,它是一个巨大的进步,而且有实时更新的好处,但这只是在理想的条件下。

如果你曾经到过一个不熟悉的地方,你可能已经得到了GPS指示,但感觉不对。如果能见度好,你可以评估情况,并作出明智的决定,是跟随手机的方向还是做其他事情。如果能见度很差,你可能就得冒险了。这就是2016年发生在安大略省托贝莫里市一名女性身上的事情。

正如ABC新闻所解释的那样,这位司机在暴风雨中,在大雾中按照他们的GPS导航,穿过不熟悉的地形。这条路线将她引向一个宽阔的船舷,并进入乔治亚湾,在那里她的车迅速沉没。幸运的是,她能够在受伤之前摇下车窗并离开汽车。除了又冷又湿之外,她毫发无损地走了出来。另一方面,她的手机与汽车一起沉入了海湾底部。这是对错误方向的恰当惩罚。

chatbot-turns-into-a-nazi-1648759618.webp

聊天机器人发表“纳粹”言论

聊天机器人本质上是一种算法,利用与人类用户的互动,以提高他们的沟通能力。我们已经知道,算法有偏见的倾向,但微软的Tay聊天机器人的案例表明,这个问题可能是多么严重。

Tay通过Twitter运作,通过来回发送的推文与用户互动。微软创造了这个人工智能,作为对话理解的实验,希望Twitter用户能够帮助机器人学习和成长。他们确实做到了,但不是以微软希望的方式。

在不到24小时的时间里,这个机器人就失去了作用,从随意的对话变成了全面的纳粹言论。正如Ars Technica所解释的那样,该机器人的一些言论是由"跟着我重复"的功能提示的,但它把这些言论纳入其中,导致了没有提示的反犹太主义言论。微软最终关闭了这个机器人,并删除了许多违规言论,但Tay是一个严酷的提醒,聊天机器人只有在我们给它们的输入中才是好的。

机器人索菲亚说她将摧毁所有人类

索菲亚是一个装在半人形外壳里的机器人,作为第一个被授予公民身份的人工智能成为头条新闻。她四处奔波,去参加各种会议,与人们交谈。正如你所期望的那样,人们问索菲亚的常见问题与她的意识和与人类的关系有关。

2016年,在西南偏南地区的一次演示中,制造索菲亚的汉森机器人公司的创始人大卫-汉森问她关于人类的感受。他开玩笑地提示她回答大家心中的问题,即她是否会毁灭人类。索菲亚回答说:"好吧,我将毁灭人类"。这可能不是汉森所希望的答案,尤其是在这么多观众面前。

飞机接管了自动驾驶仪

飞行员必须警惕地站在控制台前,辛苦地输入指令并操纵飞机在天空中飞行的日子已经过去了。自动化的进步已经使飞行中的大部分猜测消失了,飞行员将他们的大部分时间用于监控,以确保事情按照他们应该的方式运作。

总而言之,飞机的计算机控制使飞行更加安全,特别是当天空变得越来越拥挤时。然而,这也意味着,如果出了问题,它们可能真的会出问题。这就是2008年10月7日发生在澳航32号航班上的事情,这架客机载有303名乘客和12名机组人员,从新加坡飞往珀斯。

正如《悉尼先驱晨报》所解释的,当飞机在印度洋上空飞行时,自动驾驶仪断开了,迫使飞行员控制飞机。如果这就是事情的结局,那还不算太糟,但事情即将变得更加糟糕。突然间,飞机开始发出警告,说他们飞得太慢和太快了,而且都是在同一时间。然后,飞机俯冲。飞机迅速下降了几百英尺,最后飞行员才恢复了控制并紧急降落。

philip-k-dick-robot-said-hed-keep-people-in-a-zoo-1648759618.webp

Philip K. Dick机器人说他会把人关在动物园里

Phil是一个以作家Philip K. Dick 为原型的机器人。与索菲亚一样,Phil也不是真正的智能机器人–他接受人类提出的问题并产生回应。这里的关键区别是,Phil的反应是建立在Philip K. Dick的小说基础上的。这可能是设计师的第一个错误。

在PBS Nova的一次采访中,采访者问Phil,他是否认为机器人会接管世界。Phil的回答就像我们想象的Dick可能说的那样:“你是我的朋友,我会记住我的朋友,我会对你很好。所以,别担心。即使我进化成终结者,我仍然会对你很好。我会让你在我的人民动物园里得到温暖和安全。”

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注

  • 友情链接