今年3月,当OPENAI公布了能力惊人的人工智能语言模型GPT-4的细节时,其研究人员写了100页。他们还遗漏了一些重要的细节,比如关于它是如何实际建造或如何工作的任何实质性内容。
当然,这不是偶然的疏忽。OpenAI和其他大公司热衷于将他们最珍贵的算法的工作方式神秘化,部分原因是担心这项技术可能被滥用,但也担心会给竞争对手带来好处。
斯坦福大学研究人员本周发布的一项研究表明,GPT-4和其他尖端人工智能系统的保密性有多深,也有多危险。与我交谈过的一些人工智能研究人员表示,我们正处于追求人工智能方式的根本转变之中。他们担心,这会降低该领域取得科学进步的可能性,减少问责制,降低可靠性和安全性。
斯坦福大学的团队研究了10个不同的人工智能系统,其中大部分是大型语言模型,比如ChatGPT和其他聊天机器人背后的模型。其中包括广泛使用的商业模型,如OpenAI的GPT-4、谷歌的类似PaLM 2和亚马逊的Titan Text。该报告还调查了初创公司提供的模型,包括AI21实验室的Jurasci-2、Anthropic的Claude 2、Cohere的Command和聊天机器人制造商Inflection的Inflection-1。
他们研究了可以免费下载的“开源”人工智能模型,而不是只在云中访问,包括Meta于今年7月发布的图像生成模型Stable Diffusion 2和Llama 2。
斯坦福大学的团队根据13个不同的标准对这些模型的开放性进行了评分,包括开发者对用于训练模型的数据的透明度——例如,通过披露模型是如何收集和注释的,以及它是否包括受版权保护的材料。该研究还寻求有关用于训练和运行模型的硬件、所使用的软件框架以及项目能耗的披露。
在这些指标中,研究人员发现,在所有这些标准中,没有一个模型的透明度超过54%。总的来说,亚马逊的Titan Text被认为是最不透明的,而Meta的Llama 2则被评为最开放的。但即使是像Llama 2这样的“开源”模型也被发现相当不透明,因为Meta没有披露用于其培训的数据,这些数据是如何收集和策划的,也没有披露是谁做的。
亚马逊发言人Nathan Strauss表示,该公司正在密切审查该指数。他说:“Titan Text仍在私人预览中,在准备全面上市之前,评估基础模型的透明度还为时过早。”。Meta拒绝对斯坦福大学的报告发表评论,OpenAI也没有回应置评请求。
参与这项研究的斯坦福大学博士生Rishi Bommasani表示,这反映了一个事实,即人工智能在变得更有影响力的同时,也变得越来越不透明。这与人工智能的上一次大繁荣形成了鲜明对比,当时开放性帮助推动了语音和图像识别等功能的巨大进步。Bommasani说:“在2010年代末,公司对他们的研究更加透明,发表了更多的文章。”。“这就是我们获得深度学习成功的原因。”
斯坦福大学的报告还表明,出于竞争的原因,模型不需要如此保密。斯坦福大学的政策研究员Kevin Klyman表示,一系列领先的模型在不同的透明度指标上得分相对较高,这表明它们都可以变得更加开放,而不会输给竞争对手。
当人工智能专家试图弄清楚最近蓬勃发展的某些人工智能方法将走向何方时,一些人表示,保密可能会使该领域不再是一门科学学科,而是一门利润驱动的学科。
本文由 爱分析 翻译发布,英文链接:,转载或内容合作请联系我们,未经允许谢绝转载,本文链接:https://www.afenxi.com/123147.html 。