参考消息网4月24日报道卡塔尔半岛电视台网站4月19日刊登题为《“
机器人法官”:人工智能会影响法院判决吗?》的文章,内容编译如下:
随着人工智能在生活中许多领域被广泛
应用,科学界正在展开一些有关该技术的严肃讨论,包括授予模拟人类行为的计算机算法影响法院判决的权限所涉及的伦理维度。
人工智能被认为具有诸多优势,例如可以加快司法程序并使常规程序自动化。而在法律领域,这类应用程序已处于实验的最前沿,并且已开始在世界不同地区得到检验,尤其是在中国、加拿大、爱沙尼亚和马来西亚。
据土耳其阿纳多卢通讯社报道,在爱沙尼亚,已经可以利用“机器人法官”来评估一些小规模案件,而加拿大也推出了“调解机器人”,此外还有中国的“人工智能法官”、马来西亚的“人工智能仲裁系统”,这些都已使算法在司法系统中占据主导地位成为了现实。
早在2019年,中国的互联网法院便开始使用人工智能软件辅助法院的立案决策以及常规法律程序,包括案件的提交与跟进。
同年,爱沙尼亚也开始在法庭上使用人工智能增强型机器人应用程序,尤其是在审查、分析法律文件和处理涉案物品总价值低于7000欧元的案件时。
马来西亚自2022年开始在该国部分地区的法院内使用基于人工智能的司法系统实验性应用程序。
尽管将人工智能纳入司法系统有助于使积压案件得到更为一致且有效的判决,但当前争论的焦点在于,这些规定和应用程序在法律伦理层面是否健全。
阿纳多卢通讯社采访了土耳其伊斯坦布尔梅迪波尔大学的法学院讲师艾哈迈德·乌尔维·蒂尔克巴。后者认为,人工智能的伦理监督工作应当受到特定原则的制约,其中最重要的是:人工智能应当是透明的。他还说,这是一项必须受到绝对控制的条件。对此,蒂尔克巴解释称,人工智能有能力作出令人意外的决定。他还强调,计算机算法作出的决定,必须处在人类的能力范围之内。
他又强调,由算法作出的法院判决,必须要接受人类智能的审查,且使用者要能够通过类似于防病毒应用软件的那类程序来很好地控制这些算法。他还称,这类程序可以审查常规用途或特殊用途的人工智能程序的运行情况,并提高其伦理可靠性。
非营利组织美国人工智能与数字政策中心已经向美国联邦贸易委员会投诉,要求暂停使用由美国开放人工智能研究中心(OpenAI)开发的最新版本的大型语言模型GPT-4。
人工智能与数字政策中心指控OpenAI存在欺骗行为,并且违反了《联邦贸易委员会法》禁止不公平贸易行为的条款以及与人工智能产品相关的规定。人工智能与数字政策中心还强调,GPT-4存在欺骗用户的情况,并且对用户隐私和公共安全构成了威胁。
人工智能与数字政策中心声称,OpenAI开发的人工智能产品并不符合联邦贸易委员会在其指令和法规中规定的透明度和问责标准。
蒂尔克巴表示,如果有人对人工智能作出的判决提起上诉,那么该案件应当被移交给上级法院,并由人类智能进行处理。
他还称:“即使我们接受了人工智能的可靠性,但从法律和伦理的角度来看,人类本身的因素也不应被忽视。基于这一点,人工智能应当根据其所处理问题的重要性来对数据库进行大规模扫描。”
蒂尔克巴指出,在计算机算法的工作中存在一个积极因素,即人工智能可以开发出一套层次结构,使其应用程序能够在对这些案件采取任何法律措施之前,将其与此前处理过的同类案件进行快速比对。
蒂尔克巴还解释称,人工智能往往会重复其过去在类似案件中作出的判决。但是,在一些重要案例中,自动驾驶汽车发生严重交通事故时人工智能的行为和作用等,仍是科学界和工程界正在激烈讨论的最重要的纯伦理问题。