为了账号安全,请及时绑定邮箱和手机立即绑定

建立人工智能的道德规范将比想象中更难

标签:
人工智能

简评:一些法律学者认为,道德规范过于主观,无法指导人工智能的使用。

webp

AI Now 2018 技术沙龙活动时间表

在过去的六年中,纽约市警察局编制了一个庞大的数据库,包含了 17500 多个被认为参与了犯罪团伙者的名字和个人信息,并使用面部识别技术与数据库结合的手段来寻找罪犯。

这个行为一直被民权活动人士批评,他们认为这种做法非常不准确且具有明显的歧视性。

专家学者们常常强调在人工智能系统的设计和运行中需要设定道德规范,但他们忽略了一个问题:谁来定义这些道德,谁又来执行它们?过于主观的道德规范往往很难指导人工智能的使用。

webp

Sherrilyn Ifill (NAACP Legal Defense Fund), Timnit Gebru (Google), and Nicole Ozer (ACLU) in conversation at the AI Now 2018 Symposium

实际上,技术往往突出了人们不同的道德标准。为了观察人们的原则有多么不同,MIT 的研究人员创建了一个「道德机器」的测试,用以观察人们对自动驾驶应遵循的道德决策的观点。然而结果显示不同文化之间的答案存在巨大差异。

与此同时,建立道德标准也未必能改变行为。例如,今年年中 Google 制定了一套新的道德原则来指导其参与的 AI 项目,然而几个月后,Google 的员工认为这些原则已经被公司搁置。

纽约大学法学院的国际法律学者 Philip Alston 提出了解决道德模糊的解决方案 —— reframing AI-driven consequences in terms of human rights.(重新定义人工智能驱动的人权后果)他解释道,如果人工智能系统剥夺了人们的基本权利,那就不应该被接受了。


原文链接:Establishing an AI code of ethics will be harder than people think



作者:极小光
链接:https://www.jianshu.com/p/6460049c4c51


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消