是否有可能,为AI加上安全锁?

励志文章 阅读(1215)
mg官方网址

我见过剑和毒药

痴迷于火药和武器

与他人交谈时经常害怕

在每个场景中看到灾难

每当时钟响起,它就会颤抖

但并不讨厌不可抗拒的压迫

波德莱尔《恶之花》

不可忽视的使用和防御是人类驯服技术之兽的永恒主题。因此,我们有一个非常复杂的电源保护系统,具有交通规则和无数的交通安全设备,以及庞大的互联网安全行业。

由于闪电和电击的危险,我们不会决定关闭城市。相反,我们将它限制在一层,保护它,让技术安全地为人类服务。

今天,这种逻辑正在人工智能面前重演。可能就像人类第一次面对火焰的恐慌,一百多年的科幻文化,当公众面对人工智能时,首先想到的是对机器人统治地球的恐惧。事实上,这就像一个撞击地球的行星。这种情况可能会发生,但没有人知道它会发生多久。

然而,随着人工智能的发展和应用,这种新技术所暴露的危险和不确定性逐渐浮出水面。 AI的“绝缘胶带”和“空气开关”在哪里?

消息:人工智能模型可能会显示出混乱和失控。他们正准备开发一种“AI保险机制”,以便在关键时刻“关闭”AI。一旦发现AI的恶意倾向,AI活动就会被主动终止。

如果有人工智能保险转换,在什么情况下会终止人工智能工作?还有哪些其他方法可以确保类似区域的人工智能安全?在AI上安装安全锁的想法有哪些困难,甚至是不可靠的方面?

什么是人工智能的邪恶?

首先,我们应该坚定地引用人工智能的邪恶。这就像使用火,可能是人类历史上最具破坏性的技术,但至少没有人在讨论今天的“火之邪恶”或“普罗米修斯的原罪”。

但是,AI有些不同。深度神经网络的复杂性使得AI操作逻辑在某些环境中难以理解,即广泛关注的AI黑盒问题。美国小说家霍华德洛弗洛夫坚信,人类最大的恐惧就是对未知的恐惧。

作为当今人工智能技术的主要实践模式,深度学习确实涵盖了太多的面纱。 Yao Jizhi院士曾经认为,今天深入学习的很多东西都是不科学的。解决其谜团已成为人工智能学科的主要问题。

那么应用程序中仍然神秘的AI的危险可能性是什么?

尽管AI的负面报告数量远低于阳性病例数,但AI的负面报告数量非常大。总之,我们今天需要面对三个危险:

从数据到歧视

人工智能能够学会诽谤和种族歧视,每个人都必须知道。最着名的案例是,在2016年3月,微软推出了一款名为Tay的聊天机器人,但在推出后不到一天,Tay从一个简单可爱的19岁女孩变成了咒骂和种族主义言论。 “疯子”,所以微软迫切地删除了该产品。这种情况已经出现在许多人工智能聊天应用程序和语音助理中,甚至许多人工智能应用程序(如导购和安全识别)都悄悄地学会了查看人们的菜肴。

基本问题是AI将学会吸收社交网络上的对话数据。然而,在一次操作之后,学到的东西是不雅观的。深度学习基于大数据,但如果数据与不太好的数据混合,AI可能会将这些内容纳入行为模式。

但如何区分什么是好内容?这个含糊不清的问题仍然没有得到很好的答案。

2. AI作为武器和黑色制作工具

人们不仅可以教坏人工智能,还可以直接使用人工智能做恶。这个领域的案例并不少见。 2015年,英国开始发现使用AI模型模仿用户语气的电子邮件和电信欺诈行为;许多黑客证明了使用AI窃取密码和破解安全锁的能力;即使在中国,许多非法分子也开始使用人工智能识别技术来刷电子商务账户和订单,从而支持黑人生产的运作。

第三,不可靠的机器直觉

作为一种算法,AI显然不是基于常识,但很多时候,普通人和研究人员都会忽略这一点。着名的案例是Deepmind在划船比赛中训练AI,并发现深度学习模型最终得出的结论是,它不是普通人类玩家选择的路线,而是游戏中的疯狂圈子。虽然这是一款游戏,但它是一个警钟。例如,在无人场景中,AI可能不会根据人流量规则来考虑问题。它可以直接从高架桥飞行,或选择逆行以获得更好的通行证。效力。

这不是危言耸听。今天的研究发现,在路牌上做一点手脚可能会干扰计算机视觉。毕竟,即使机器可以看到,它也不是人类的“观点”。

显然,这些问题在未来的AI应用程序中非常复杂和危险。所以在问题出现之后,解决方案是什么?

检察官,刽子手和道德家:

我们用什么来锁定AI?

失去对AI本身的控制可能与安全风险有关,可能与人类历史上的任何技术风险不同。它吸收大量数据并执行复杂的内部转换,因此给人类带来的困难是,它不是像汽油或电力那样的简单安全法,而是难以捉摸的隐藏错误。

我们经常听AI开发人员告诉这样的情况:模型跑了,OK好,再跑,有问题,有什么问题,不知道.两次以上,好像又好了?

显然,在像工业这样的关键生产领域,部署这样一个精明的员工是不合适的。那么如何在AI上安装安全设备?你可以看到今天业内有几个想法。应该指出的是,这不是一个明确的类型争议。在实施AI安全性时,有必要与全面的解决方案一起工作。

首先,执行者

该主题可以追溯到我们在开始时提到的DeepMind。他们正在开发的AI安全技术,图像被描述为复杂的AI任务背后,在电话中代表“AI执行者”。通过使用自己的安全逻辑重新开发强大的AI系统,基于增强的学习机制,它可以随时监控其他AI模型的工作。一旦有特殊动作,立即跳下电源。

事实上,“可中断”的概念一直是DeepMind在AI安全领域的核心概念。去年12月,他们发布了一份名为《安全可中断智能体》的研究报告,展示了如何确保在中断重启的环境中代理的性能不会受到影响。

让AI监控AI。虽然它在技术上非常前沿,但它仍然存在一些问题,但它可能是未来AI安全锁的主要研究方向。由于日益复杂的深度神经网络,其他问题可追溯性模式可能难以消耗。产生的人工成本。

然而,这项新技术带来的主要疑问显然是“谁将监督上司?”

第二,检察官

无论是歧视还是错误的机器直觉,它都可以归因于深刻学习的黑匣子。那么有没有办法看看黑盒子,让人类开发人员找到问题AI的错误点,以便纠正它而不是鲁莽地打断它?

事实上,解决黑匣子是人工智能安全领域和应用场景的主要方向。今天我们可以看到越来越多的黑盒解释工具出现在研究甚至行业中。

今天有两种主要方式来解释黑匣子。一种是使用AI来检索AI。例如,使用注意机制,训练神经网络模型来复制和跟踪其他AI模型的轨迹,以找到错误训练结果的训练源。帮助开发人员进行更正。

另一个想法是使用一些工具来实现深度学习模型的结构可视化,这意味着将黑匣子变成玻璃盒子。因此,当AI出错时,研发人员可以相对容易地查询每一层的培训过程并找出问题。

然而,无论是AI检察官还是人类检察官,今天这些黑匣子解释技术通常只涉及不那么复杂的深度学习模型。而且,一般需要大量的劳动力参与其中,人工智能变成“人工+智能”,消耗的人力必须具有相当大的技术水平。

第三,道德主义者

无论方向如何,防止AI做恶都不仅仅是今天的技术问题。例如,培训数据的三个视图不够积极,程度取决于开发人员的三个视图;例如,开发人工智能武器和人工智能监测工具的愿望是否是社会和国际责任问题;许多AI歧视问题源于开发人员希望提高业务效率的事实。这也是一个道德问题。

为了防止这些问题蔓延,AI的安全锁显然不仅应该是技术锁,还应该引入广泛的社会机制。今年2月,包括OpenAI,牛津大学和剑桥大学在内的14所院校发表了一份名为《人工智能恶意使用》的研究报告。该报告指出应该承认,今天人工智能的研究成果是一把双刃剑。为了控制人工智能带来的风险,决策者应与技术人员密切合作,调查,预防和减少可能的恶意使用人工智能。在人工智能领域,应优先考虑规范和道德框架;应扩大讨论这些人工智能挑战所涉及的利益相关者和专家的范围。

应该从技术,法律,道德,研究习惯等领域全面控制预防人工智能的恶意问题。这已成为国际共识。但显然这个锁看起来最简单,实际的铸造很难想象。

无论是“停电”,大检查还是社会监督,这些人工智能安全锁都隐藏在人工智能道德问题背后。今天的人类有着共同点:人性的本质是矛盾的,但我们想要模仿人类。 AI有统一的规则。

但是,谁会保证安全锁的无罪?

无论任何人工智能安全保护措施,归根结底,它都是一句话:我希望人工智能可以区分善恶,善良就是善恶,邪恶就此停止。

这有多容易?当人工智能需要越来越多的人类社会培训数据时,人的价值判断也会被映射出来。在人工智能领域,人类社会中的一些道德障碍也是不可避免的。

例如,我们已经开始探索当其他AI出错时我们是否可以让AI系统终止其行为。但这涉及错误的AI行为的定义边界。谁会标记错误的行为?

我们都知道Google AI曾将黑人视为猩猩,这显然是一种歧视形式。但是,如果人工智能判断警察部署应该在一个不好的安全区加强,那么这也是终端应该采用的一种歧视形式吗?这个问题确实在洛杉矶警察局使用的系统中得到了揭示,这引起了加利福尼亚激烈的争论。

此外,各国之间的AI规则是否应该一致?今天,越来越多的人工智能公司和国际工业组织,甚至政府组织,已经开始关注人工智能的道德和伦理问题,并开发出国际统一的人工智能伦理。但统一的AI法规是否会违反某些国家的风俗习惯?它会阻碍一些国家和地区的人工智能研究吗?例如,欧盟的AI研究隐私保护政策是否真的适合全世界?

这些人工智能道德方面几乎是矛盾的问题,是所有人工智能安全锁技术和工业行为的最深层敌人。即使是长期未来,人类行为判断真的比人工智能更好吗?有时,使用技术来打断不可预测的机器学习行为,它是否真的揭示了人类的无知?或者它是否已经停止了用技术创造技术的新可能性?

那么,这些问题今天没有任何真正的答案。这也意味着今天在AI上佩戴严格的安全锁仍然是一项不可能完成的任务。然而,破解AI黑盒和AI自我监控的技术进步确实使AI应用程序的安全指数迅速上升。今天媒体中出现的许多人工智能安全问题应该迅速得到解决。

问题和解决方案总是在交替状态下向前发展。

人工智能的最终安全锁应该被用来阻止AI唤醒人类的那一刻?但是,这是什么时候?你能看到这一刻的安全锁吗,它不应该先被阻止吗?

更精彩,敬请关注硅谷官方网站(http: