最近几天,清华大学社会科学学院社会学系,中国科学院学部—清华大学科学与社会协同发展研究中心主办了伦理立场,算法设计与企业社会责任研讨会清华大学公共管理学院教授,人工智能治理研究中心主任梁正在研讨会上表示,算法治理是一个制度问题,不是技术问题,算法的治理应当重点关注算法使用的过程及其产生的影响
梁正表示,从技术特性方面看,机器学习目前还是一个黑箱过程,在透明性和可解释性上存在问题,某种程度上类似于化学科学产生之前的炼金术阶段,我们知道算法管用,但不知道它的核心原理是什么,需要在基础理论方面进一步深入研究。
梁正分析说,从国际经验看,欧盟是自上而下地制定规则,以算法透明和问责去保证算法公平他称,这里面,涉及到了算法原理的可解释性,过程的可追溯性及决策结果的可被理解性,具体的治理路径是建立算法评估机制,审计机制以及问责机制,用这个方式倒推算法开发和应用的责任
相较而言,美国对算法的规制相对谨慎,梁正说,如果把算法理解为一套技术方案,对它进行干预的话,可能就不符合基本的市场竞争理念美国在这方面还是很小心,特别是商业,企业领域不过,在过去三年,美国在公共领域比较明显的变化是对人脸识别技术的禁用,包括纽约市出台的算法问责法,州层面出台的法案如《加州消费者隐私法》,则类似于欧盟的思路
他介绍,中国目前已经出台一系列法律法规,包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,建立了基础机制,一些规范,指引,准则在推出过程中,数据治理体系也在建设中在基本的制度体系建立后,接下来应该重点研究制定可实施和操作的细则
治理模式构建方面,算法的治理不在于算法本身,而在于算法使用后产生的影响当然,也不只是看结果,还要看过程,这是一个理想状况如果技术解决方案上能够做到可解释,可负责,可信任,就可以保障它不出问题算法治理还需要多方协同参与,包括使用者,劳动者,研发设计者,管理者等等他还说
梁正指出,目前国家出台的相关法律,把安全,个人权益等敏感问题的红线都划出来了,之后便是针对各专门应用领域提出更具体的要求,算法做到可解释,可问责,治理中实现分级分类,分场景同时,过程中有监督,事后有补救,以及确定治理的优先级,在不同领域应用不同的治理工具,包括对基本底线的把控
他最后强调,算法治理是一个制度问题,不是技术问题,不能仅仅按照技术的选择区分什么是好算法或坏算法。“不管哪个国家,经济体或产业部门,各方都把公平作为算法治理的一个起点性要求,但实际上关于什么是算法公平,大家却没有共同可接受的内容。”陈玲认为,公平有不同的定义,至少应先建立一个基础框架,从共识的角度去理解“可接受公平”。。
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。