> Photo by Vladislav Babienko on Unsplash
如果您问我,Netflix上绝对最好的电视连续剧是《黑镜》。 作为软件工程师,我对技术有着内在的兴趣,并且看到使用技术可以实现的所有令人敬畏的事情。 在《黑镜》中,看到某人对技术可以实现的想法非常酷。

但是,真正使我着迷的是Black Mirror,它如何说明先进技术可能带来的不可预见的后果,例如,当用户与完全不同于预期的软件交互时。
在创建产品来提供支持时,它最终会导致问题,这很有趣,有时甚至很可笑。
我知道有些人认为黑镜很可怕。 Black Mirror的"可怕"一面来自存在危险,当用户按计划执行所有操作时,危险就产生了,但软件的运行不符合预期。
《黑镜》中的这些副作用有时有点好莱坞式。 但是,近来有许多这类副作用的现实例子,最具体的说,是那些使创建和维护该软件的道德规范令人怀疑的副作用。
软件工程师是聪明的人,我们都尽全力使软件能够按预期工作。 但是,可能是由于不可预见的情况和未知的未知因素(我们不知道自己所不知道的)的结合,原本就很棒的技术进步并没有达到预期的效果:
偏向语言翻译在各种口语中,例如我的第二语言德语,名词都有性别。 任何使用西班牙语,法语或意大利语的人都可能对此很熟悉。 在德语中,甚至在各个专业中都有男女用词,即男医生(Arzt),女医生(Ärztin)。
还有其他一些具有相同结构的语言,但是在其他语言中,例如土耳其语,当以第三人称说话时,该名词具有不分性别的代词。
Google翻译使用的算法无法准确处理此类语法。 当将一般的中性第三人称代词翻译成英语时,翻译会将性别偏向代词(他,她)与名词可能具有的刻板印象的性别相匹配。 例如 在土耳其语中,"她是医生"被翻译成"他是医生"。 你可以在这里读更多关于它的内容
令人困惑的一个积极方面是,谷歌找到了一种解决它的方法。 尽管仍不是100%准确,但他们增加了在句子具有语法结构(算法无法完全自信地翻译)时将两种性别都显示为可能的译文的功能。
偏向面部识别美国政府进行的一项研究表明,大多数人脸识别软件通常用于试图将一个人的面部与照片匹配或试图在一个照片数据库中查找一个人的照片,而当人的准确率低得多时, 不是白人。
这具有许多含义。 一个例子是面部识别软件寻找通缉犯的情况。 如果通缉犯恰好是非洲裔美国人或亚裔,并且被扫描的人的肤色相同,则当匹配不正确时,该软件更有可能错误地发出匹配信号。
这与用于训练软件的数据类型有关。 所有AI模型和应用程序都可能发生这种情况。 训练数据需要具有尽可能多的可能发生的场景或案例的示例。
麻省理工学院道德机器另一个有趣的问题是,您如何着手进行道德决策所需的编程软件,例如,近几年来技术上最具有未来派意义的进步之一:自动驾驶汽车。
进入像特斯拉这样的可以自动驾驶的汽车,或者通过无人驾驶汽车运送食品的想法,似乎就像是直接从iRobot和Wall-E出发的事情。
不幸的是,我们已经看到这些自动驾驶汽车的故障导致死亡,这使我们想起了永远不变的一件事:软件可能无法预测。
当然,开发人员必须尽一切努力针对所有极端情况进行开发,包括负面情况,在MIT道德机器的情况下,这种情况是无人驾驶汽车没有刹车的情况,并且出于以下原因 实验不能以任何其他方式放慢自己的速度。
该网站提供了一项调查,用户必须决定哪些更重要。 法律在危害人类安全方面有多重要? 动物的生命是否不如人类重要? 车内人员或车外人员应优先考虑谁的安全?
这是一个非常有趣的实验,突出了开发人员和产品所有者在开发可改变世界的技术时需要牢记的挑战和变化的结果。
机器人取代人类?在软件世界中最有争议的主题之一是这样的观念:软件越能使世界上的各种任务自动化,就会失去更多的工作。 一项研究预测,到2030年,科技行业将失去7300万个工作岗位。
当然,我们以前已经看过它。 自动化工厂已经使许多工厂工作变得过时,而快餐业对实际厨房工作的要求越来越少。
某些人认为,虽然可以自动取消工作,但这并不意味着失去工作的人必须失业,因为这为他们提供了机会,使他们能够在使用新技术支持其工作的同时应用自己的技术。 最后一句中的超链接以医生为例。 科技的进步使软件可以诊断患者,但对医生的需求并未减少。
无论哪种方式,随着技术的不断发展,都需要牢记这一点。
数据采集我以前住在美国。 移居欧洲几个月后,差不多是美国的母亲节,当我在Instagram上滚动浏览时,我经历了有史以来最令人不安的技术事件之一。
我在Instagram上滚动浏览,看到一个广告,上面有一个咖啡杯,上面有美国的轮廓,欧洲的轮廓,两者之间的箭头,以及杯子上的一句话,上面写着"爱无距离,我爱你, 妈妈"。 考虑到我母亲仍然住在美国,这简直令人毛骨悚然。
亚马逊,Facebook,谷歌和许多其他大型科技公司进行的数据收集通常是作为提供他们认为是用户想要的服务的一种方式进行的。
"几天来您一直在看互联网上的新电视? 好吧,然后让我向您展示更多有关它的广告,不仅让您紧紧抓住它,而且还让您知道何时有销售。 -认为自己有所帮助的Amazon和Google Bot
问题是,这些公司拥有太多关于我们的数据,选择退出该系列并非那么简单。 也许我们不想要这些服务。 也许我们希望能够在家中拥有语音助手并推荐不错的产品,但是我们希望拥有私密性,并且不想感到自己住在老大哥屋里。
数据既有善有恶的力量。 它可以为许多技术和对世界及其众多用户的见解敞开大门,但是就像火一样,如果不加以控制,它可能很危险。
我最喜欢的电视连续剧中的另一个是机器人先生。 在第1季中,主角讲述了一个故事:
"有一天,我父亲从学校接我,我们玩了钩烟,然后去了海滩……当我回到家时,我的运动鞋布满了沙子,我把它扔在了卧室的地板上。 [我的父亲]说,数十亿年前,世界的变化和海洋的移动将沙子带到了海滩上的那个地方,然后我把它拿走了。 他每天都说我们改变了世界。 直到我考虑要带多少沙子的鞋子带回家直到没有沙滩之前,这是一个不错的想法。 直到对所有人有所作为。 我们每天都在改变世界。 但是,以一种意味着一切的方式改变世界……所花费的时间比大多数人要多。 它永远不会一次发生。 太慢了 这是有条理的……"
这句话很美,因为它描述了变化的两个方面。 软件工程师负责世界上如此巨大的变化和进步。 但是通常速度很慢,这意味着可以沿路径调整路径。
这只有在我们反复尝试保持决策意识以及开发软件的方式时,才会发生。 不同领域中的大量挑战意味着团队需要拥有一组不同的团队成员,这些成员对他们要解决的挑战具有不同的想法和理解。
Ethical OS Toolkit是软件团队可以使用的出色工具。 团队可以使用该工具来帮助他们在构建软件时做出符合道德规范的正确决策,并围绕构建潜在的改变世界的软件带来的各种挑战推动对话。 甚至在Thoughtworks Tech Radar中也是如此。
作为工程师,必须确保我们制造的东西为世界带来积极的价值,并正确地制造以限制副作用,这在我们的工作描述和我们的责任中……这听起来像我们是超级英雄。 不要忘了像一个人一样。
资源:· 有偏见的翻译:https://qz.com/1141122/google-translates-gender-bias-pairs-he-with-hardworking-and-she-with-lazy-and-other-examples/
· Google翻译补丁:https://www.blog.google/products/translate/reducing-gender-bias-google-translate/
· "种族主义者"的面部识别:https://www.technologyreview.com/f/614986/ai-face-recognition-racist-us-government-nist-study/
· 科技将取代工作:https://www.entrepreneur.com/article/332468
· 科技不能取代工作:https://www.forbes.com/sites/andrewarnold/2018/03/27/why-robots-will-not-take-over-human-jobs/#4bba883092fd
· 自主汽车死亡人数:https://en.wikipedia.org/wiki/List_of_self-driving_car_fatalities,
· 杂货交付自动车:https://nuro.ai/product
· 麻省理工学院道德机器:http://moralmachine.mit.edu/
· Google数据收集:https://www.cnet.com/how-to/google-keeps-a-scary-amount-of-data-on-you-heres-how-to-find-and-delete-it/
· 道德操作系统工具包:https://ethicalos.org/
· Thoughtworks Tech Radar道德操作系统:https://www.thoughtworks.com/radar/techniques/ethical-os
(本文翻译自Tylor Borgeson的文章《The Not-So-Simple Ethics Involved in Software Engineering》,参考:https://medium.com/swlh/the-not-so-simple-ethics-involved-in-software-engineering-80b24fcc1f0d)