随着人工智能的迅速发展,其应用已经渗透进生活的各个角落,而随之而来的则是我们必须面对的风险问题。在这一背景下,北京航空航天大学法学院教授周学峰在《比较法研究》2024年6期中发表了关于人工智能风险规制的重要论文,深入探讨了这一领域的挑战与应对策略。
本文首先从风险理论的视角来理解人工智能风险。在指出人工智能风险不仅仅是技术问题时,周教授强调,它涉及复杂的伦理、法律及价值判断。这些风险主要包括不确定性、不透明性、泛在性和变动性,给相应的规制带来了极大的挑战。
在分析人工智能风险规制的正当性时,周教授阐述了显而易见的必要性。他指出,事后救济常常难以应对预先存在的风险,尤其是当损害尚未发生的情况下,缺乏提前规制的行动可能导致系统性灾害的发生。因此,在人工智能的使用中,前期的有效规制是相当必要的。
论及规制对象时,文章提出应明确立法中如何将人工智能的研发者、提供者和使用者纳入规制范畴,强调风险规制应当注重行为的全面监管。
同时,周教授针对当前对人工智能的监管模式进行了深刻分析,提出了一种“横向与纵向分类”的规制模式,以应对各行业领域中各自特有的风险,力求做到普遍适用且具针对性。尤其是创建一个灵活的、动态的规制体系,以适应人工智能技术的快速发展。
值得注意的是,对于无法度量的风险,周教授提出不应将其排除在外,而是应制定相应标准与策略,保证人工智能发展与安全并行。也就是说,责任的分配、法律的适用和事件的后果应采取多元化的视角,以实现最佳的公共利益保护。
最后,周学峰教授总结道:人工智能的复杂性使得对其风险的消除几乎是不可能的,因此,精准的事后救济和动态的事先规制应形成有机结合。只有如此,才能在推动科技创新与保障公众安全之间找到适当平衡。该论点为未来研发安全与高效的人工智能产品提供了宝贵的理论参考。返回搜狐,查看更多