Skip to main content
x

蒂尔克:人权必须成为生成式人工智能技术的核心

返回

2024年2月14日
发言人: 联合国人权事务高级专员福尔克尔·蒂尔克(Volker Türk)

下午好,

很高兴今天能和大家进行交流。我要衷心感谢主办本次活动的人权与国际司法中心和斯坦福大学的所有共同赞助方。

我们齐聚于此处是很合适的,因为斯坦福大学长期以来一直是全球人工智能领域的领跑者。仅举一个例子,斯坦福大学的人工智能实验室自1963年以来始终在创新研究方面发挥着带头作用。

显然,人工智能本身并不新鲜。但我们都知道,当前迅速而剧烈的变化正在带来我们从未遇到过的挑战。

我们都听说过反乌托邦式景象:整个世界几乎梦游般地冲向自我监管,陷入失控甚至可能灭绝的漩涡。

或者,人工智能有可能将其扭转为救援景象,帮助我们揭开治愈癌症、结束全球变暖和消除饥饿的秘密。然而,当今世界正处于被人工智能毁灭或拯救的两极之间。人工智能的种种构想正在广泛领域变为现实,但同时生成式人工智能等先进技术对人权造成了无与伦比的影响,对此许多人已经有所感受。

这让我想到了一些事。歌德(Goethe)的《浮士德》讲述了关于“荷蒙库鲁斯”(Homunculus)的迷人故事——这名人造人代表了科学和启蒙运动的精华,他的欲望也使其展现出了比创造者更深刻的“人性”。在《魔法师的学徒》这首诗中,歌德生动地描述了把精灵从瓶子里放出来后将会发生什么。诗歌最后,当学徒似乎失去一切之后,老巫师终于返回打破了咒语,由此表达的教训是一个人应该在真正掌握魔法后再使用它。那么,什么能帮助我们掌握人工智能?我的看法并不出人意料,我强烈认为,人权是掌握和解决方案的一部分。

人权包含了一种古老的智慧,可以指导我们面对今天的挑战。它们的确可以引导我们走出全新而未知的迷雾。它们可以驯服野性、避免混乱。重要的是,它们代表了一种规范的、具有法律约束力的框架,不仅能指明正确方向,还因为规定了制衡制度进而可以释放每个人、每个地方的全部自由。归根结底,人权关乎的是人类能动性、人类尊严以及人类在地球生态系统中的位置。简言之,人权提供了一种长期的、代际的治理模式,因此确保了人类的未来。

因此,让人类能动性和人类尊严重回这场辩论的核心比以往任何时候都更加迫切。

因为生成式人工智能目前仍处于开发和部署阶段,我们无法清楚说明如何确保安全。我甚至可以说,我们连希望用这种技术达成何种使命都不清楚。当我们与这项强大的技术打交道时,有限的透明度、不明确的责任和过度依赖私营公司去“做正确的事”是不够的。当监管机构介入为潜在的灾难设置护栏时,各国和各公司基本上并未接受我们为应对这些巨大挑战而制定的一套贯穿各领域的法律,即国际人权框架。

人权框架为我们创新和利用人工智能的潜力提供了亟需的基础。

与此同时,它可以预防和减轻过多风险,避免生成式人工智能成为广泛侵犯和践踏人权、歧视和排斥行为的渠道。

人权体现了这样一种想法,即必须保护人民免受政府、个人、私人实体和公司的某些践踏行为。

为了说明我的意思,我想向各位介绍一些与我们的主题尤其相关的人权。

工作权。

生成式人工智能有可能使经济和劳动力市场发生巨大变化。我们已经看到,生成式人工智能创造的内容正在各个领域取代人类创意。一个关于工作、休闲和时间利用的新世界即将出现。而对于那些失业、感觉受到排斥、被压迫的人来说,“生活意义”意味着什么?我们该如何做好准备?如果我们失去了全民社会保障,如果不平等现象因此而加剧,如果这最终会导致危险的社会解体,那又意味着什么呢?

有了生成式人工智能模型,不受歧视的权利也对准了几乎不可避免地包含仇恨和歧视思想的材料,这些思想侵蚀着我们的社会,大肆传播着种族主义或厌女内容,迎合了社会中存在的大量误解、错误和直白谎言,助长了仇恨。我们要如何保护推动批判性辩论的公共声音,包括代表少数群体、性少数者、妇女和儿童的声音?如果我们不对高危群体的具体需求予以足够重视,社会的基本弊病就会加剧。

信息获取权。

2024年是选举之年,世界各地将会举行约70场选举,这也意味着极有可能出现廉价却有力的大规模政治宣传和有组织的虚假信息宣传活动。这种顺势效应,包括仇恨、歧视或剥夺政治行为者和国家机构的合法性,可能会严重破坏民主社会运作的原则。我们要如何确保独裁者、民粹主义者、极端分子等“开放社会”和以人权为本的秩序的敌人不会占据上风,给人们的思想和心灵蒙上阴影,仅仅为了满足少数人的利益而把一切都变成彻底的、永久的、自动的宣传活动?

隐私权。

以名义投资为由大规模生产和传播以假乱真的“深度伪造”(deepfakes)的能力还只是刚刚开始,但我们已经看到这种现象可能会扰乱选举、欺骗民众、传播厌女症和仇恨。我们要如何预防娜奥米·克莱恩(Naomi Klein)所描述的极为诡异的“重身幽灵”(Doppelgänger)现象?我们要如何逃离奥威尔式的未来,逃离精神控制和无处不在的监视?我们要如何确保人类的贫富差距不会进一步扩大,尤其是考虑到巨大的数字鸿沟?

我想到的其他权利还有免于饥饿、享受适当生活水准、获得社会保障和住房的权利。重要的是要了解为何人工智能既能帮助实现这些权利又能对其构成威胁。

同事们,朋友们:

在此背景下,生成式人工智能到底具体意味着什么?

首先,各国和各公司必须将人权框架作为监管和治理生成式人工智能的首要参考。

其次,必须使用这一框架来指导生成式人工智能技术的设计和开发,将人权融入其整个生命周期。

人工智能的复杂性要求我们深思熟虑、谨慎行事。我们需要弄清楚人工智能对不同个人的权利和沟通产生了哪些影响。

不仅仅是在今天的会场,而是在所有地方。

人工智能创新及其对人权的影响对拉各斯的一名青少年、布宜诺斯艾利斯的一名教师或曼谷的一名儿童意味着什么?对于那些正在世界各地的55场暴力冲突中痛苦挣扎的人又意味着什么?

尊重人权的生成式人工智能意味着它会倾听那些可能受其影响的人的声音,无论好坏。这有助于我们重新调整应用人工智能的方法,确保它不带歧视地为所有人服务。因为正如人是人权的核心一样,人也必须是技术的核心。

我们还必须不断提出难题。我们如何在保障表达自由的同时预防仇恨言论和虚假信息?我们如何在不侵犯我们信息获取权的情况下保护艺术家、音乐家和作家的人权和知识产权?

尽管伦理考量在这场讨论中占据重要位置,但我们也需要人权以及它那普遍、有约束力的框架,使我们在寻求具体解决方案上更进一步,并避免最糟糕的情况——对践踏人权行为追究刑事责任。

我的办事处与一些制造生成式人工智能的龙头企业有直接合作。我们的目标是在其开发工具的过程中提供支助,使人权成为现实。

与此同时,我们还呼吁在执法和司法等人权风险较高的领域暂停使用人工智能,直到建立充分的防护制度。我们敦促将人权更好地纳入技术标准制定过程,因为与人工智能应用和使用有关的重要决定就是在这些过程中做出的。

我们知道,要在生成式人工智能的诸多未知因素间游刃有余,必须紧急采取以下行动:

我们需要负责地实行商业行为。

我们需要对造成的伤害进行问责。

我们需要为这种伤害的受害者提供补救。

但最重要的是,为了从一开始就减少这些伤害的发生,我们需要坚定立足于人权,对人工智能进行妥善治理。

各公司应当对其竞相投放市场的产品负责。它们需要做更多的工作来查明和解决明显的直接风险,并强化安全方法和培训数据来源的透明度。

各公司和各国都必须系统地对其设计、开发、部署、销售、获得或运营的人工智能系统进行人权尽职调查。这方面的一个关键因素是定期、全面的人权影响评估。

事实上,我们已经拥有这些工具,能够指导各国政府和私营部门推进基于人权的人工智能。

自2011年以来,《联合国工商企业与人权指导原则》为各国和各公司提供了稳健原则,能在今天为负责任的人工智能开发奠定基础。人权办的B-Tech项目还就如何应用《指导原则》来预防和应对与数字技术有关的人权风险提出了一系列建议、工具和指南,各公司和其他利益攸关方积极参与了制定工作。新设立的联合国人工智能问题高级别咨询委员会也提出了关于人工智能治理的初步建议。我们将于今年9月在纽约举行领导人未来峰会,届时全球数字契约将成为另一条至关重要的前进道路。

同事们,朋友们:

过去的几十年,斯坦福大学在利用人工智能潜力方面取得了长足的进步。斯坦福人工智能夏令营(AI4ALL)和人工智能促进社会公益(AI for Social Good)等方案都在努力增加多样性并培训人工智能工程师,以此将社会正义目标纳入技术建设。人工智能、医学和成像中心通过其在健康和创新方面的开创性工作使患者受益。

作为学生,你们正在建设属于自己的未来。在人工智能领域,你们也在为建立人类未来发挥作用。

为了让技术造福人类,我们需要深刻的关注、理性的声音和深厚的代际责任感。

人权的意义恰恰在于此。

硅谷是数字和技术创新的力量中心,而在引导我们远离今天讨论的风险方面,身在此处的你们所发出的声音远比你们想象的更重要。因为推动这一部门实现基于权利和自由的负责任的商业行为,将给全世界每一个人带去深远的长期红利。

有了坚定的人权原则,我认为我们可以安全地利用人工智能,继续努力创造和创新,不断提供人类所能交出的最佳成果。

我希望我们都能为实现这一宏伟目标而努力。

谢谢大家。

返回