中新社重庆4月19日电 (梁钦卿 杨梦逸)19日在西南政法大学举行的2025·亚洲人权论坛上,人工智能(AI)治理成为论坛讨论焦点。针对AI带来的隐私、算法歧视等问题,有人权专家建议完善法律法规,推动跨国协同立法,并建立多元共治机制,平衡技术创新与人权保障。
“人工智能在应用中有可能侵害人类的生命权、健康权、财产权、劳动权、隐私权、平等权等,数据过度收集、数据滥用、数据跨境传输都有可能带来侵害人权的问题。”北京理工大学科技人权研究中心执行主任、法学院教授肖君拥举例称,人工智能工具在提升效率的同时有可能使决策者成为技术的附庸,削弱专业化的思维,比如说医疗领域里面存在双重的误诊风险。对于应对这些风险的法治化路径,他提出要加强人工智能人权风险的立法保障、社会防控,此外还要加强技术管控和国际合作。
针对国家法律是否能够为约束和监管AI活动而开展跨境工作,蒙古国立大学法学院副教授乌扬加·迈阿马尔在线上发言称,AI监管是个严峻问题,国际社会已起草多份文件进行回应,例如联合国、欧盟等机构都制定了相应的法律和条例。同时,世界多国在立法方面也在跟进,这表明国际社会都在加速构建AI治理体系和监管体系。“国际法能够跟上AI的快速演变,所以在国际层面需要多做努力来确保公约和国际协议能够保障人权。”
“科技竞争是如今世界各国进行博弈的主战场和前沿阵地。在此背景下,应把人权纳入全球治理视野中,用人权来‘驯化’科技竞争,确保科技发展的利益公平普享。”吉林大学法学院教授、人权研究院副院长刘红臻表示,以AI技术为例,其科技伦理和技术标准尚未建立全球化的统一标准,规则制定应强调共商、共建和共享,保证所有国家平等参与,建立开放包容、和平安全的科技治理秩序。
随着人工智能产业的发展,“主权AI”与“AI主权”的概念区分及其对产业发展的影响也引起业界关注。西南政法大学人工智能法学院博士张翔认为,“主权AI”本质上是一种技术控制工具,以地缘政治竞争为核心,而“AI主权”本质上是一种治理框架,融合技术、法律与伦理规则。未来,发展中国家需平衡技术自主与人权保护之间的关系,避免陷入“数字陷阱”;国际合作也应积极推动开源生态与多元价值共存。(完)
发表评论
2024-05-31 18:36:38回复
2024-05-31 18:40:01回复
2024-05-31 18:43:35回复
2024-05-31 18:46:53回复
2024-05-31 18:49:33回复
2024-05-31 18:50:06回复
2024-05-31 18:52:52回复
2024-05-31 18:53:27回复
🤔(思考表情)
2024-05-31 18:54:05回复