审理医药、电信、建材、文化消费等领域垄断案件,依法惩处垄断协议、滥用市场支配地位行为,保护市场竞争活力和消费者合法权益。
还有错得更离谱的,童先生说权力分配权利。看他的法学论文,考证之博,溯源之深,条分缕析,细致入微,让人难望项背。
前者无论怎样让渡或汇聚,都不可能成为后者。支撑‘表面上的公共利益的是全部合法财产中的一部分,即由个人缴纳的‘费用,如‘捐税等与权力相对应并支撑权力的‘财富。权力的出现就是为了保护人们的利益,主要就是个人利益或私人利益,这是权力的目的和功能所在。[8] 在这里,黑格尔把人的自由意志作用于自然物作为权利的唯一根据。然而,权力因个人利益或个人权利的对立而产生这一历史事实是改变不了的,而且权力必须保护人民大众的个人利益或个人权利才具有合法性。
权利的重要性可以说不言而喻,每个人都在创造权利,争取权利,维护权利,享受权利,权利保障人们的生存、繁衍、发展,是人们的现实生活中须臾不可或缺的物质载体或精神载体,是人性的内在呈现和外在实现,是人类唯此为大的二重存在之一(另一是道德),怎么能不重要呢。童先生说:从权力的起源或权力终极性起始阶段看,其实是先有权力后有权利,权利来源于权力的确认和认可。另一种主张在危害性获得证明之前还应该继续研发,可以称之为技术发展无须审批的原则。
按照这个日程表,力争在2024年本届议会届满前通过欧盟人工智能法案,颁布全球首个关于人工智能产品、服务以及决策的综合性法律。显而易见,这样的人机对话会不断加强法律系统自我指涉和意义自我繁衍的特征。这些标准既包括对强人工智能进行治理的元规则和具体规则,也包括形成强人工智能系统自身道德能力的评价标准以及在多种道德(例如自主决定、亲属关怀、健康维持、隐私保护等等)之间互相冲突时进行排序和处理的机制。于是乎,我们不得不追问究竟还能不能找到一个通用算法来判断那些通过有限步骤就可以停止的程序?这就是困扰计算机科学家和哲学家的图灵停机问题。
意大利学者埃琳娜·埃斯波西托用人工沟通这个术语来描述这种人机对话。另一方面,除了自主武器伤害,还有那些包括网络诈骗、诱饵钓鱼、捆绑流氓软件等在内的社会工程攻击也构成失控的典型场景。
值得注意的是,正付诸欧洲议会讨论的欧盟人工智能法案最近追加了若干规定,要求生成式人工智能模型的设计和开发也必须符合欧盟的法律和基本权利规范,包括表达的自由,同时也为AIGC设立了版权规则。事实上,近几个月来有些游戏美术外包公司已经在大批裁减美工画师,因为这些工作由AI来做效率更高、成本极低。直面自我指涉的法律和人工沟通的悖论据报道,近来ChatGPT已经开始广泛应用于司法和法律服务场景,包括全球四大会计师事务所的法律业务处理。所谓奇点,在科技上指的是人工智能超越人类智慧的时刻。
人们认为强人工智能能够理解,其实只不过是把预测当作理解了。不言而喻,这种无需人类直接控制的自主武器系统非常精准和有效率,但也会导致战争自动化,会给人类带来极大的风险和危害。今年4月5日的《华盛顿邮报》还披露了一个更加令人不寒而栗的事实,加州大学洛杉矶分校尤金·沃洛克教授的实验性研究发现,生成式人工智能ChatGPT居然能够捏造法学家性骚扰的丑闻及其信息来源,指名道姓进行有鼻子有眼的诽谤。一种主张在安全性获得证明之前应该停止新的研发,可以称之为风险预防至上的原则。
中国人工智能治理与法规的最新演变事实上,以2021年《新一代人工智能伦理规范》为标志,中国在不断加强对人工智能开发活动的治理,强调可信、可控、可问责以及敏捷应对的基本原则。也就是说,强人工智能似乎正在蹑手蹑脚地走进人类的生活世界。
这样就会产生AI与人类在智能上进行比较或竞争的压力,进而导致对AI取代人类、伤害人类的忧虑。当聊天智能系统在胡说八道时也能摆出一本正经的样子,甚至引经据典,这就非常容易让不明就里的人们信以为真。
面对生成式人工智能ChatGPT横空出世以及GPT-4引发的强AI研发竞争,即便侧重创新的美国也出现了更加强调风险预防原则的倾向。但是,我们也要看到,即便强人工智能可以巧妙地处理差异,也仍然不能自己产生差异,因而不能像人类那样进行灵光乍现的创新。把算法安全评估和算法备案手续作为提供相关服务的前置要件,并要求服务提供者设立用户投诉处理机制,还必须履行用户身份验证义务、防沉迷义务、个人信息保护义务、避免使用歧视性内容的义务、及时处置违法信息的义务、提供安全稳健服务的义务、生成内容审核和标识的义务、提高透明度义务等等,有的属于新增义务类型。2023年5月5日,世界顶级法商信息服务平台LexisNexis又推出了面向法律界的生成式AI系统Lexis+AI??,旨在通过大语言模型实现法律和判例的高效检索以及文书生成自动化。也就是说,人工智能治理的标准将从算法偏见最小化转向模型滥用最小化——从此透明度算不了什么,预测的准确度将决定一切。由此可见,除了各国制定人工智能研发的伦理和法律规则的努力之外,还需要为相关国际公约的缔结凝聚共识。
此外还有对知识产权制度的重磅冲击所导致的失控。特别值得注意的是,中国政府在2021年启动了人工智能产业的清朗行动计划,当年侧重算法滥用的专项治理,翌年又启动了基于算法正义的综合治理,试图在三年左右的时间里把相关的伦理原则、法律规则以及技术性测试、监管、评价方法都落到实处。
2022年3月1日颁布的《互联网信息服务算法推荐管理规定》还确立了算法备案制,要求对社会有实质性影响的算法服务提供者必须在开业十天之内提供算法自评估报告、公示内容等具体材料并履行备案手续,以确保监管部门能在源头上控制人工智能风险。七年前,当AI系统阿尔法围棋(AlphaGo)击败来自韩国的围棋世界冠军李世石时,人工智能超越人类智能的预测似乎变成了现实,曾经引起一片骚动。
例如枫丹白露欧洲工商管理学院的菲利浦·帕克教授为一种自动制作合理且信息丰富的书籍的技术方法申请了专利,这意味着不久就有可能看到AI生成的书籍,本来似乎已经尘埃落定的AIGC著作权制度安排或许会再起风波。在新冠疫情暴发前一年的那个夏天,油管(YouTube)用户纷纷发现,该视频网站上的机器人对战场景都被自动删除了,于是又爆发出机器觉醒的惊呼。
例如在2023年3月下旬,未来生命研究所发表了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强的AI系统至少6个月,并获得马斯克等千名以上的科技界领袖和业界大佬签名支持。概括起来说,主要存在如下三类恐慌:第一,失业的恐慌。又例如澳大利亚新南威尔士大学已经有人利用GPT从科学文献中获取有用的知识实现了材料科学的重要发现,并且可以用于开发新的材料和器件,因而AI for Science系统的发明权和专利权归属也将成为极其复杂的法律问题。特别是《生成式人工智能服务管理办法(征求意见稿)》把重点放在制造虚假信息、暴露个人隐私、侵犯知识产权、造成系统歧视、进行网络攻击等风险的防范上。
中国在上述两种立场中究竟应该如何取舍?抑或在统筹兼顾之余,持中庸之道?强人工智能引发人类的三种恐慌不可否认,强人工智能若隐若现,正在人类社会甚至很多AI专家中引起某种恐慌。在我看来,这就意味着人工智能治理的重点将从算法治理转向模型治理。
对AI企业的违规行为则将采取非常严厉的制裁措施,罚款可以高达3000万欧元或全球收入的6%。对强人工智能应保持强风险意识上述恐慌都基于强人工智能的独立自主性。
紧接着,网信办也有针对性地拿出了《生成式人工智能服务管理办法》草稿广泛征求意见。这些规范试图通过备案制、安全评估、专家复核程序、明确责任主体、拟订风险清单、进行抽查核验等方法加强监管,旨在防止人工智能技术的研发和应用失控。
不过,上述规范文本如何与《网络安全法》、《数据安全法》、《个人信息保护法》的既定内容进行更缜密的衔接和整合,还有待进一步推敲和改进。在尼克拉斯·卢曼用自反身和自创生等概念所描述的这种状态下,实际上法律推理过程很容易陷入无限循环、频繁出现无法被证明或证伪的陈述。实际上,ChatGPT也是AI网络化的一个典型,有可能从根本上改变人与物质世界之间的关系。进入2023年4月后,随着ChatGPT引发的全球性争议日趋尖锐,中国科技部及时公布了《科技伦理审查办法(试行)》稿,就新型人工智能治理向社会投石问路。
但与此不同,强人工智能则被认为具有与人类同样的认知能力、抽象思考能力以及解决问题的能力,甚至有可能在智慧程度上超过人类。在2023年5月初,好莱坞的剧作家们还举行了颇有声势的罢工和游行示威,抗议制片厂启用AI系统创造剧本
进入 季卫东 的专栏 进入专题: ChatGPT 人工智能 。有鉴于此,瓦拉赫、艾伦、斯密特在2012年发表的《机器道德》一文中早就提出了这样的命题:机器的自由度越大,就越有必要为机器设立伦理的各种标准。
意大利学者埃琳娜·埃斯波西托用人工沟通这个术语来描述这种人机对话。按照这个日程表,力争在2024年本届议会届满前通过欧盟人工智能法案,颁布全球首个关于人工智能产品、服务以及决策的综合性法律。

相关文章
发表评论
评论列表