第A07版:科创

上一版  下一版   

 

2024年02月24日 星期六

 
 

放大  缩小  默认    下一篇

 

从ChatGPT到Sora,技术进步带来挑战也提供机遇

中国科技企业“逐浪”还是“造浪”?

青年报记者 刘昕璐

青年报记者 刘昕璐

本报讯 如果2023年是属于大语言模型的一年,那么2024年,Sora为首的多模态大模型,或许将带我们走向更超乎想象的远方。将心中所想的文字直接变成视频,过去的幻想正无限接近现实。在复旦大学管理学院信息管理与商业智能系助理教授李文文看来,即便尚未对公众开放,由OpenAI发布的Sora已经在短短几天超越“GPT”们,成为大众讨论度最高的AI界“新晋顶流”。“AIGC产品在以UGC为核心的平台上惊艳亮相,可能是AI时代的一个重要转折。”对于Sora带来的影响力,以及AI大模型领域的未来发展前景,信息管理与商业智能系李文文老师分享了她的最新观察。

李文文认为,这将重新定义人类与AI的交互关系,“真实”与“虚拟”的边界将愈发模糊。同时,人与AI之间的新交互与新关系也会随之而来。“我认为,对于个体而言,技术进步虽然带来了不少挑战,但也提供了新的机遇。与其盲目担忧工作被取代,不如思考我们应该如何定位自己,如何适应AI时代,如何将技术为我所用。”

在她看来,换一个角度来看,AI中的“A”可以解读为assistance和augmentation,AI应该作为人类的“辅助”“增强”工具,而不是替代工具,或者说,AI应该是人类的工作伙伴。“AI的意义在于让更多人从简单重复的劳动中解脱出来,以更高的效率去创造更大的价值。当自然语言的交互模式极大降低了AI技术的应用门槛,任何人都能够简单地使用AI辅助自己的工作。例如,Sora让视频制作更加简单高效,让更多人将自己的想法转化成生动的视频,也可以让人们更加聚焦于创意和故事本身,所以,未来基于Sora的U-AIGC可能会越来越多。”

当然,目前的AI工具精细度仍然有限,因此,如何高效地与AI沟通,将是未来我们必须学习和具备的技能。对此,李文文指出,精细度包含两个方面:一是通过自然语言交互传达指令的精细度,二是AI理解并实现指令的精细度。而且,AI能否完全理解并且实现用户提出的每一个指令细节依然存疑。以GPT为例,如果给出一个较为复杂的指令,有时候GPT就会“自主”忽略指令中的几个细节要求。

那么,中国科技企业“逐浪”还是“造浪”?李文文表示,从ChatGPT到Sora,大模型为科技公司不断带来充满前景的新赛道。去年仅8个月内,中国就诞生了238个大模型,几乎一天一个。然而,当ChatGPT拉高了用户和市场对于大模型性能的要求后,训练大模型将意味着投入更多人力、算力和数据量,以提升模型性能,满足用户需求以及市场的期待。

李文文观察到,以往人工智能领域有着浓厚的开源氛围,大家乐意把最新的模型代码分享到GitHub这类网站上,所以其实AI创业的门槛并不是非常高,因为核心技术和模型都是公开的,只需要稍微修改一下模型,拿自己的数据训练一下,就能得到一个新的垂直领域的AI产品。现在,闭源的大模型使得科创企业不得不思考另一个问题:自研大模型还是使用已有大模型聚焦垂直领域应用?

“纵观全球的大模型发展格局,中国企业在这场大模型竞赛中一直处于追随者的位置。尽管追上头部的大模型产品比较困难,但我们的科创企业必须要追赶,而且需要考虑如何解决两个非常大的挑战。”李文文认为,首先是算力问题,其次是数据问题。未来,大模型市场还可能会出现比较显著的马太效应,头部的两三个大模型产品会占据绝大部分市场。

“所以,国内企业一定要在大模型发展的初期持续发力,努力追赶。我们期待中国的科创企业能够在核心技术和前沿技术研发上投入更多精力,从而在大模型以及人工智能领域具备更强的竞争力。”李文文说。

[新闻分析]

Sora的突破与风险

位于旧金山的美国人工智能公司“开放人工智能研究中心”(OpenAI)近日推出能够通过文本指令创建视频的生成式人工智能模型Sora,这一突破巩固了其在人工智能领域的领军地位,但同时也加剧了对“深度伪造”等风险的担忧。

“惊鸿一瞥”恐颠覆行业

分析人士认为,Sora再次凸显人工智能技术进步对现实生活和传统行业的深远影响。人工智能在视频生成领域的巨大发展前景在为塑造影视产业新业态打开大门的同时,恐将颠覆现存影视产业。好莱坞去年遭遇了63年来首次编剧和演员全行业罢工,因为该行业的部分工作机会可能被人工智能取代。Sora横空出世让这一威胁变得更迫近和真切。其面世第二天,主营图像处理、视频制作软件的奥多比公司(Adobe)股价应声下跌超过7%。

“深度伪造”担忧加剧

Sora发布可谓一石激起千层浪,但此次推出的更像是预览版,公众尚难以深入全面了解该模型的优缺点。OpenAI表示,目前仅主要向一些设计师和电影制作人等特定人群提供Sora访问权限,以获取有关改进该模型的反馈。公司不仅未公布训练Sora模型的数据等基础细节,更没有确定向公众发布的日期。

OpenAI承认,目前Sora生成视频中可能包含不合逻辑的图像,混淆左右等空间细节,难以准确模拟复杂场景的物理原理和因果关系实例等。例如,一个人咬了一口饼干,饼干上却没有咬痕。

不过,随着算力增强、模型改进,人们可能会在短期内获得更加完善、先进的视频生成功能。

不少业内人士担心,Sora将为“深度伪造”(Deepfake)技术推波助澜。加利福尼亚大学伯克利分校信息学院副院长法里德就表示:“当新闻、图像、音频、视频——任何事情都可以伪造时,那么在那个世界里,就没有什么是真实的。”

针对造假顾虑,OpenAI称在真正面向公众推出产品时,将确保生成视频包含来源元数据,并推出检测视频真伪的工具。OpenAI还承诺,在产品中使用Sora前将采取安全措施,包括由“错误信息、仇恨内容和偏见等领域的专家”对模型进行对抗性测试来评估危害或风险;核查并拒绝包含极端暴力、性内容、仇恨图像、他人IP等文本输入提示等。

即便如此,OpenAI也承认,尽管进行了广泛的研究和测试,“我们仍无法预测人们将使用我们技术的所有有益方式和滥用我们技术的所有方式”。

据新华社电

 

 

青年报