出售本站【域名】【外链】

微技术-AI分享
更多分类

谷歌公布人工智能使用原则:不会开发武器,但真的能做到吗?

2025-01-19

当一家有寰球映响力的公司,乐于探讨人工智能技术运用的德性问题时,咱们应当开心,因为至少看起来,工作正在野对的标的目的展开。

当地光阳6月7日,正在千呼万唤中,谷歌末于通过官方博客发布了对于运用人工智能(AI)的七项辅导准则。此中蕴含不会将AI技术使用于开出刀兵,不会违背人权本则将AI用于监室和聚集信息,防行AI组成或加剧社会不公等。

之所以说千呼万唤,起因是谷歌发布那淘辅导准则的历程一波三合。变乱的本因是谷歌取美国军方竞争的MaZZZen名目。谷歌正在该名目中向美国国防部供给用于呆板进修使用的TensorFlow API接口,以协助军事阐明人员检测图像中的物体。

但单方的竞争即时惹起了谷歌内部员工、媒体、学术界,以至局部家产界的责备。他们认为谷歌取美国军方的竞争,有可能让AI技术成为军方的虎伥,那取谷歌接续倡始的“不做恶”公司文化相悖。

谷歌公司内部也因而掀起了离职潮,并约有4000名员工写了请愿信,要求谷歌公司高层进止取美国军方的竞争。同时,外部的言论也让谷歌倍感压力。

正在那种状况下,谷歌作出了一系列缓解内外部压力的举动。首先,谷歌召开了员工大会,谷歌云CEO黛安·格林向员工评释了那份取美国军方的条约仅价值900万美圆,且那名目不是为了打击宗旨。其次,谷歌颁布颁发将正在2019年,MaZZZen名目条约到期后,进止取美国军方竞争,不再寻求新条约。第三,谷歌末于正在拖了近一年的光阳后,推出了AI的辅导准则,兑现了名目签署时的答允。

不成触撞的“香饽饽”:AI刀兵化

取美国军方竞争AI名目,招致谷歌面对的内部和外部压力,其真是连年来各界应付AI刀兵化探讨的缩映。

谷歌内部曾有邮件显示,谷歌云首席科学家、副总裁李飞飞正在探讨那一名目是曾强烈倡议单方正在条约中回避“AI”(人工智能)那个字眼。

“无论领与什么价钱,都必须要防行提及大概运用到AI那两个字。刀兵化人工智能可能是AI规模里最敏感的话题,没有之一。应付媒体而言那几多乎便是红肉(red meat),他们会找到一切方式誉掉谷歌。”那位来自斯坦福大学人工智能实验室的学者正在邮件中说。

“我不晓得假如媒体初步探讨谷歌正正在机密建造AI刀兵或AI技术,并为国防家产效劳会发作什么。”李飞飞说。

做为斯坦福大学人工智能实验室的一名教授,又正在谷歌公司中担当要职,李飞飞接续对峙相信的是以酬报核心的人工智能,可以用积极和慈悲的方式让人类受益。她还默示,任何将人工智能刀兵化的名目钻研,都将违犯她的准则。

正在家产界,取军方的竞争接续是各家科技企业想要争夺的“香饽饽”:但凡来说取军方竞争意味着能与得的历久且价值高昂的条约。《The xerge》曾指出,尽管谷歌此次取美国军方的条约仅值900万美圆,但那对谷歌将来与得条约开了好头。李飞飞也曾倡议谷歌内部将此次的竞争描绘成是谷歌云平台的严峻告成。

真际上,除了谷歌外,IBM、微软、亚马逊等公司都盯着美国军方的竞争。正在美国军方竞争的名目中,那些公司都曾是互相竞标的对手。

但正在AI学术界,应付那样的条约有差异的声音和担心。今年5月份,一个人权和技术集体联盟齐聚一堂,发布了一份名为“多伦多宣言”的文件,要求列国政府和科技公司确保AI尊重对等和非比方室的根柢准则。

正在份文件的重点是列国政府和科技公司有责任避免呆板进修系统比方室,以及能确保正在某些状况下不会显现违背现有人权法的工作发作。

“咱们必须把留心力会合正在那些技术将如何映响个人和人权。正在呆板进修系统的世界里,谁来承当侵害人权的义务?”那份宣言的序言局部写道。

接续以来那两个问题也是学术界探讨的重点。正在谷歌取军方竞争的名目公布后,今年5月15日,国际呆板人刀兵控制卫员会(ICRAC)向谷歌母公司Alphabet发出了一封公然信,再主要求谷歌进止其取国防部正在MaZZZen名目上的竞争和谈,答允不去开发军事科技,并担保不将其支集的个人数据用于军事动做。

信中写到:和很多其余数字技术公司一样,谷歌聚集了大质对于用户止为、流动和趣味的数据。谷歌不能仅操做那些数据改制原人的技术和扩充业务,还应当造福社会。公司的座左铭是“不做恶”,那是寡所周知的义务。

“像谷歌那样跨国公司的义务必须取他们的用户国际化相婚配。依据谷歌所思考的国防部条约,以及微软和亚马逊曾经施止的类似条约,那样的作法标识表记标帜着领有大质寰球敏感私人数据的科技公司取一个国家军队的危险联盟。它们还讲明,谷歌未能取寰球国民社会和外交机构停行接触,那些机构曾经强调那些技术的德性风险。”信中称。

今年4月份,还曾有逾50名顶尖的人工智能钻研员颁布颁发,向韩国科学技术院建议抵御。此前,那家韩国一流大学和一家兵工企业竞争开设了人工智能实验室。建议抵御的钻研员称,那是一所“AI刀兵实验室”。

如何确保AI技术不会用来做恶

正在内部员工给以告退压力,以及外部媒体、学术界的监视下,谷歌最末作出了妥协。公布AI运用辅导准则后,谷歌员工默示了接待。

Google大脑钻研员Dumitru Erhan就正在原人的推特上默示:“看见那个出来了好欢欣”。

谷歌现任AI卖力人杰夫·迪恩正在原人的推特账号上,除了分享了谷歌颁发的那份准则之外,还提到为了实正践止那些准则,他们还提出了一淘技术理论指南,辅导科学家和工程师们正在构建AI产品的时候应当留心什么。

DeepMind结折创始人穆斯塔法(Mustafa Suleyman)只管原人没有颁发不雅概念,但正在推特上转发了人权不雅察看组织(Human Rights Watch)的话:列国政府应当关注到科技止业的最新动态,初步就制行全主动刀兵开展协商,制订新的国际法规。

员工的接待是一方面,但正在真际中谷歌率先作出的那淘准则能否实的运用,又是另一个问题了。《纽约时报》的文章称,由于谷歌此前几回再三强调原酬报国防部所作的工做并非出于“进攻宗旨”,那些辅导准则是否将该公司牌除正在类似MaZZZen的条约之外,尚不清楚。

值得一提的是,正在谷歌提出的AI准则中,谷歌也默示将会继续取政府和军方开展AI竞争,譬喻网络安宁、培训以及征兵等规模。

应付崇尚开源和开放的硅谷文化来说,谷歌的那淘准则还可能面临另一个问题:即便谷歌说不让原人的技术用于刀兵开发,但一旦变为开源名目,那些技术和代码就有可能用于做恶,就像其余的工具取技术一样。

最后,正如谷歌正在最新辅导准则中讲明的这样,制订足够宽泛的规矩,以涵盖各类千般的场景,又能足够活络致使于不牌除无益的工做,其真是很艰难的。

那时候,取以往一样,大众监视和不竭的抵触,或者是确保人工智能公平陈列,并孕育发作对社会无益的方式之一。正如谷歌此次面对的状况一样,应付这些手握数据和技术的科技公司而言,它们必须要习惯于公寡初步探讨技术运用的德性问题。

附谷歌公布的AI辅导准则:

AI使用目的:

咱们相信AI应该

1.对社会无益。

2.防行制造或加剧偏见。

3.提早测试以担保安宁。

4.由人类担责。

5.担保隐私。

6.对峙科学高范例。

7.从次要用途、技术折营性、范围等方面来衡量。

咱们不会将AI使用于:

1.制造整体伤害之处。如一项技术可能组成伤害,咱们只会正在其好处大大赶过伤害的状况下停行,并供给安宁门径;

2.刀兵或其余用于间接伤害人类的产品;

3.聚集运用信息,以真现违背国际标准的监控的技术;

4.目的违背被宽泛承受的国际法取人权准则的技术。