科技 > OpenAI增强安全团队 授予其董事会否决危险AI的权力 可直接否定

OpenAI增强安全团队 授予其董事会否决危险AI的权力 可直接否定

2023-12-20 14:01阅读(112)

北京时间12月19日,openai在官网当中宣布将会扩展内部的安全流程,来抵御一些有害的人工智能威胁,增加一个新的安全顾问小组,而这个小组将会在技术团队之上,可

1

北京时间12月19日,openai在官网当中宣布将会扩展内部的安全流程,来抵御一些有害的人工智能威胁,增加一个新的安全顾问小组,而这个小组将会在技术团队之上,可以直接向领导层提出一些建议,并且董事会会给安全顾问小组授予否决危险AI的一个权力,也就意味着安全小组是有直接性的权利处理认为有危险性的人工智能威胁。

IMG_256

在这一份公告当中,open AI是讨论了最新的一些框架问题,Open AI将会跟踪,评估,预测和防范现在逐渐强大的人工智能模型带来灾难性风险的一个流程,对于如何判定为灾难性的风险,open AI认为任何可能会导致经济损失或者说导致他人伤害死亡的风险,都会被称之为灾难性的风险,人工智能在快速发展的过程当中也一定会带来一些潜在的危险,对于open AI公司而言,肯定是想要控制好这些风险性,目前人工智能的功能性越发的全面,对于生活当中如果出现了一些无法判定的事情,可以交给人工智能来进行判定,人工智能会给出是否具有危险的相关指令,同时也会给出一些建议。

IMG_256

OpenAI的准备框架分成了不同的关键性要素,第一个要素是评估和打分,将会不断的去评估所有的模型,这样是能够对他们进行更好的打分,第二个要素是设定一个风险性的阈值,如果超过了这个阈值,将会被进行上报,第三个要素是监督技术工作以及安全的决策,所有的报告都可以发给领导层和董事会,让领导和董事会来进行决定,第四个要素是增加问责的制度,对于出现的任何问题,都需要有相关的人员来承担这个责任。

IMG_256