(转载:www.idcew.com) 英国科学家们提出了一个新的国际框架,将伦理和人类福祉放在我们与技术关系的最前沿。
从基因治疗和3D打印,技术进步可以改善健康,腾出时间,提高效率。
然而,尽管它的创造者有着良好的意愿,技术可能会给个人隐私和自主性带来意想不到的后果。
例如,对于谁有权访问汽车、智能电视和语音个人助理中黑匣子记录的数据,目前国际上还没有一致同意的规定——最近的研究表明,技术可以用来影响投票行为。
现在,伦敦帝国学院的研究人员提出了一项新的监管措施结构政府可以借此将我们与科技关系的意外后果降到最低。评论文章发表于自然机器智能。
由帝国理工学院的拉斐尔·卡尔沃教授领导的研究小组表示,随着我们与科技的关系不断发展,他们的提议有助于确保人类的利益,如伦理、隐私和福祉得到优先考虑。
他们建议使用环境影响评估作为蓝图,该评估评估一个提议的项目或开发可能产生的环境影响。评估将考虑人工智能和技术的相互关联的社会经济、文化和人类健康影响。
被称为技术的人类影响评估(HIAT)的拟议框架将被设计成预测和评估新的数字技术对社会和个人福祉的影响。他们认为,这应该侧重于个人隐私、幸福和自主性等伦理考量。
研究人员说,评估还应该考虑哪些人负责管理数据和维护道德标准,以及当事情出错时谁负责。
帝国理工学院戴森设计工程学院的卡尔沃教授说:“通过人工智能和技术的快速发展,我们正面临着第四次工业革命——但是随着我们与人工智能关系的发展,它也有可能扰乱我们的生活。例如,有证据表明人工智能被人类用来操纵情绪、注意力和投票行为,以及法律、教育和就业决策。 “现在是时候建立一个框架,以确保我们与人工智能继续保持积极的关系。”
伦理难题
HIAT框架将有助于新兴产业解决与使用人工智能和存储大量数据相关的道德难题。
根据该评论,国际商定的指导可能有助于回答的问题包括:
一些人工智能助手可以代表一个人给餐馆打电话,并使用真实的人类语言进行预订。在这种情况下,应该有什么义务让拿起电话的人意识到打电话的人是机器而不是人?保存从这些对话中收集的数据必须获得什么样的同意? 有些司机很合适黑盒他们的汽车向保险公司传递他们驾驶方式的信息。该信息用于计算保险费。在这些情况下,我们如何防止人工智能收集和处理的个人数据(你去哪里和什么时候)被卖给第三方? 一些警察部门在执勤时使用人体佩戴视频(BWV)来记录视频和音频,这些视频和音频可以在以后的调查中使用。最近也有面部识别软件的试验——但是谁能接触到在这些案例中收集的数据,这些法规是否足够健全以保护公众的隐私? 卡尔沃教授补充道:“虽然我们经常从技术进步中受益,但我们也可能遭受伦理、心理和社会成本。
“影响评估是嵌入某些价值的重要工具,已成功用于许多行业,包括采矿、农业、土木工程和工业工程。
“制药等其他行业也习惯于在强有力的监管环境中创新,如果没有这一框架,他们的产品将很难获得信任。
“随着人工智能的成熟,我们需要像HIAT这样的框架,让公民相信这项强大的新技术将广泛惠及所有人。” (转载:www.idcew.com) |