电话客服热线:15257964135

“行车不规范,亲人两行泪”,人大代表建议对机器人驾驶员也立法制约

2019-03-05 13:54:58浏览:354评论:0 来源:上观新闻   
核心摘要:“行车不规范,亲人两行泪,”还要承担相应的法律责任。但,如果开车的“人”是人工智能怎么办?今天下午上海代表团议案会签现场,全国人大代表、致公党上海市委专职副主委邵志清表示...

“行车不规范,亲人两行泪,”还要承担相应的法律责任。但,如果开车的“人”是人工智能怎么办?

今天下午上海代表团议案会签现场,全国人大代表、致公党上海市委专职副主委邵志清表示,当社会行为主体中出现“人工智能”这个新门类,应该明确人工智能与自然人的行为划分。当人工智能“犯错”,智能机器人的使用者、制造者和机器人本身都要承担相应责任,但这些法律责任应进行严格的区分。

日前,新华社在全国两会前夕推出全球首个人工智能合成女主播,引发网友热议。但另一方面,此前浙江警方曾于2017年 9 月破获全国首例运用人工智能实施犯罪的案件。英国《金融时报》也曾于2015年7月报道了德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然抓起重重摔向金属板而不治身亡。

邵志清表示,上述案件中,有的是机器通过自主学习提升识别能力从而帮助人实施犯罪,有的则是因机器完全自主的行为导致人员伤亡。“传统刑法领域只有自然人才是刑法规制的主体,然而在人工智能应用场景下,很多机器成为了主体。”邵志清表示,现有法律已经难以规范此类问题,需要对人工智能的应用场景管理进行立法。

对此他建议,人工智能应用场景的管理应重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。其中,对于人们最关注的伦理道德方面,应该明确禁止应用人工智能技术实施违反人类伦理道德的行为,尤其在基因工程、生命科学、情感意识等方面,应该通过法律为智能社会划出伦理道德的边界。

同时,应立法明确禁止人工智能采集涉及个人隐私、商业秘密、国家机密的资料或信息、数据等,从源头上遏制恶意使用人工智能的不法行为。

对于特别“聪明”,已经具备自主学习、思考、行动能力的机器人,应该明确在特定的应用场景和应用前提下,机器人与自然人主体的行为哪些要区分认定,哪些要共同认定。

邵志清还特别建议,应立法明确人工智能的责任划分和处罚原则,一旦发生机器人侵害人类的事件,应该让智能机器人的使用者、制造者和机器人各自承担的责任都有严格区分。

(责任编辑:小编)
下一篇:

共赴科技盛会“2024南京智博会”11月在南京博览中心召开

上一篇:

“价格战”并不是中国机器人行业发展的唯一出路!

  • 信息二维码

    手机看新闻

  • 分享到
打赏
免责声明
• 
本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们 agvline@www.agvline.com
 
0相关评论