生成AI登上达沃斯论坛,OpenAI CEO发话称AI将迈向下一个纪元

更新时间:2023-01-18 18:05:11作者:智慧百科

生成AI登上达沃斯论坛,OpenAI CEO发话称AI将迈向下一个纪元


新智元报道

编辑:Joey

【新智元导读】2023年的达沃斯论坛这次邀请了OpenAI的CEO Sam Altman发表主题为「AI迈向下一个纪元」的闭幕演讲,并预测了未来AI的发展方向。

过去的一年里,生成式AI(Generative AI)可谓是强势出圈。

从文本到图像到视频甚至代码,你能想到的生成AI几乎都能帮你做到。

这不,2023年世界经济年度峰会,也就是达沃斯论坛也点名表扬了生成AI在2022年所取得的辉煌成就。


本文将生成式AI称为「社会和企业需要郑重应对的破局者」,足以见其重视程度。


此外,论坛还邀请了OpenAI的CEO Sam Altman出席并发表了「AI迈向下一个纪元」的闭幕主题演讲,同时讨论了关于AI未来发展对经济社会的帮助等一系列话题。


这次与Altman对话访谈的是美国知名企业、领英联合创始人里德·霍夫曼 (Reid Hoffman)。


我们截取了一小段对话访谈的片段,完整访谈链接也贴在下面啦。


Altman认为人工智能是所有科技发展的基础平台,从大型语言模型到图像和语言之间切换的多模态应用的巨大飞跃,到显著扩展科学家能力的应用程序,所有行业都将从中取得许多进步。


视频链接:https://youtu.be/WHoWGNQRXb0

完整访谈链接:https://greylock.com/greymatter/sam-altman-ai-for-the-next-era/

最后文章还总结了这些年来生成AI的发展历史。

上一组图来看看,从2014到2022生成AI在图像品质上的飞越,这些图片都是由AI模型生成的现实中不存在的人。


生成式AI的超强能力

生成式预训练转换器 (GPT) 是一种大型语言模型 (LLM),它使用深度学习来生成类似人类的文本。

尽管当前市场低迷,科技行业裁员,但生成式人工智能公司继续受到投资者的关注。

例如Stability AI和Jasper最近分别融资了1.01亿美元和1.25亿美元,红杉资本等投资者认为生成式 AI 领域可以产生数万亿美元的经济价值。


随着Stable Diffusion和ChatGPT等新模型的发布,生成式AI已成为技术专家、投资者、政策制定者和整个社会的热门话题。

生成式AI并不是一个全新的概念,生成式 AI 背后的机器学习技术在过去十年中不断发展。

生成式AI训练模型的工作原理是从大型数据集中学习,并使用这些知识生成与训练数据集中示例相似的新数据。


这通常是使用一种称为生成模型的机器学习算法来完成的。生成式模型有许多不同类型,每一种都使用不同的方法生成新数据。

一些常见的生成模型类型包括生成对抗网络(GAN)、VAE和自回归模型。

例如,在人脸图像数据集上训练的生成模型可能会学习人脸的一般结构和外观,然后使用这些知识生成新的、以前未见过的但是看起来真实可信的人脸。

生成模型用于各种应用程序,包括图像生成、自然语言处理和音乐生成。它们对于手动生成新数据非常困难的任务特别有用,比如为产品创建新设计或生成听起来很逼真的语音。

OpenAI 的最新版本 ChatGPT 引起了轰动,并在短短五天内吸引了 100 万用户,被描述为在更广泛的任务领域取得了突破。

目前正在讨论的用例包括搜索引擎的新架构、解释复杂的算法、创建个性化治疗机器人、帮助从头开始构建应用程序、解释科学概念等。

Midjourney、DALL-E 和 Stable Diffusion 等文本到图像程序有可能改变艺术、动画、游戏、电影和建筑等的渲染方式。

基于人机合作的新时代,乐观主义者声称,生成式人工智能将有助于艺术家和设计师的创作过程,因为生成式人工智能系统将增强现有任务,加速构思,并从根本上加快创作阶段。

除了创意空间,生成式AI模型在计算机工程等复杂科学领域具有变革能力。

例如,微软拥有的GitHub Copilot基于OpenAI的Codex模型,可以建议代码并协助开发人员自动完成他们的编程任务。

该系统被引用为自动完成高达 40% 的开发人员代码,大大增加了工作流程。

潜在和未知的风险

虽然生成式人工智能让人们对它所带来的创造力感到激动,但也有人担心这些模型对社会的影响。

数字艺术家Greg Rutkowski担心互联网上会充斥着与他自己的作品无法区分的艺术品,只需告诉系统以他独特的风格复制艺术品即可。


艺术教授 Carson Grubaugh 也有同样的担忧,并预测大部分创意劳动力,包括从事娱乐、视频游戏、广告和出版业的商业艺术家,可能会因为生成人工智能模型而失业。

除了对任务和工作产生深远影响外,生成式AI模型和相关的外部性在AI治理社区引起了警觉。

大型语言模型的问题之一是它们能够生成虚假和误导性内容。

Meta 的Galactica——一个在 4800 万篇科学文章上训练的模型,声称可以总结学术论文、解决数学问题和编写科学代码——在上线不到三天后就被撤下了,因为科学界发现它对学生产生了误解,产出了错误的数据和知识。


另外通过图灵测试的机器人表现出与人类相似或无法区分的智能行为的能力,此类功能可能会被滥用来跨平台和生态系统生成虚假信息。

大型模型继续在书籍、文章和网站中代表的大量数据集上进行训练,这些数据集可能以难以完全过滤的方式存在偏差。

尽管在 ChatGPT 的案例中通过使用人类反馈强化学习 (RLHF) 大大减少了有害和不真实的输出,但 OpenAI 承认他们的模型仍然会产生恶意和有偏见的输出。

参考资料:

https://www.weforum.org/agenda/2023/01/davos23-generative-ai-a-game-changer-industries-and-society-code-developers/