为方便大家了解大厂AIGC的玩法,小编将一一介绍各家AIGC工具的工作方式,简述其会带来的生产力质变,各家工具的适用场景、核心竞争力、深远影响等。拿走不谢哦~底层技术:“基础生成算法模型”、“预训练模型”、“多模态技术”①联动其他AI系统&数据库,实现大规模个性化、高频优化②能对不同模块元素进行拆解组合,将深刻改变内容生产的逻辑&形式③基于海量数据的强创造性&开放性,有助于推动艺术创新(资料参考:量子位智库《AIGC-AI内容生成深度产业报告》)综上可见,虽然我们现在生活在“软件即服务(SaaS)”的状态;但在不久的未来,将更深入一层,生活在“模型即服务(MaaS) ”的时代,对设计师的能力结构需求,也会基于此发生变化:精准表达能力、创意能力、审美品味、叙事能力和搜索能力等能力的优先级将会提升。这下终于可以开始介绍工具啦,Let’s Go !
1.Adobe firefly
Adobe近期最火的新闻莫过于“生成式AI模型集”Adobe Firefly的发布。这是Adobe第一款通过Adobe Stock 图像、公开授权内容和版权已过期的公共内容进行训练的工具,将聚焦于视觉效果,生成可商用内容。与其他AI绘画软件通过输入文字进行指定(比如风格)不同,Firefly将这些指定设计成了可视化的可选步骤,使得生成结果更可控。用户还可以使用品牌自有内容训练Firefly,使其产出吻合品牌风格和设计语言。可以预见,能直接生产可消费内容的Firefly,将能支持大规模的个性化。2.Adobe Sensei GenAI
除了图像创意,Adobe在「服务设计」领域也是佼佼者,Adobe体验云平台工程高级副总裁Anjul Bhambhri表示:”品牌的关键增长动力是向人们展示品牌方准确理解用户当前需求的能力。”Adobe一直致力于帮助品牌,以可预测、可重复、目标导向式的方式让用户变成粉丝。今年3月23日,Adobe发布的Sensei GenAI,能借助Adobe Experience Platform(AEP),将组织的客户数据和内容汇总在统一的通用语言模型下。Adobe Sensei GenAI 官方介绍
这样的话,品牌就能根据专属且全面的客户洞察来训练生成式AI模型,输出基于品牌特定使用情境的内容,比如:“生成营销文案”、“对话式体验”、“建立受众/客户旅程”和“生成文字说明”等。搭载Sensei GenAI 的 Adobe 服务设计软件,将能实现自动建立精细化的受众细分(Adobe Real-Time Customer Data Platform )、实时模拟线上线下客户体验(Adobe Journey Optimizer)、测试用户体验旅程(Generative Playbooks)等功能,提升企业满足千人千面的能力。Adobe 数字体验业务高级副总裁 Amit Ahuja 用一句话,概括了Adobe在AIGC方面的优势:“我们对生成式人工智能的愿景涵盖了完整的客户体验管理生命周期,同时兼具符合客户期望的企业级安全性和数据治理能力。” Adobe 的 AI工具,将极大提升设计生产力,进而对设计行业形成整体性影响。相信已经有不少小伙伴体验过了New Bing。除了文本搜索AI化,图像方面,微软也将OpenAI旗下的另一款产品——DALL·E 2集成到了New Bing中,起名为Bing Image Creator。这款工具既可以单独访问,也可以在New Bing的聊天模式中使用,同时也整合到了目前正在内测的图像处理软件Microsoft Designer中。与其它主流AI绘画工具(比如Midjourney、Stable Diffusion等)相比,Bing Image Creator的核心竞争力就是集成到了浏览器上,这是「微软」改变传统图片搜索逻辑迈出的重要一步,其未来发展空间很是值得期待。综上,集成了New Bing和Bing Image Creator的Edge,作为第一个吃下“搜索引擎AI化”这只螃蟹的浏览器,在未来一段时间里,将会是竞相效仿的对象。AI绘画工具的发展,将会让更多设计师能腾出空来,提升业务能力。而Microsoft 365 Copilot将在这方面提供“自动化重复/基础工作”、“跨应用工作协同”、“使用自然语言实现工作结果”三大助力。随着使用的深入,会逐渐让我们把注意力集中到项目的本质——“人”身上,更加重视体察“人”的情感。Microsoft 365 Copilot能做什么
显而易见的是,Copilot将会革新很多人的工作方式;但Copilot还嫌不够,将会带来一场更潜移默化的变革——通用软件的「交互设计」。我们现阶段的交互方式是:点击一个按钮,实现一个功能;如果需要实现复杂的效果,就需要自己分解并“翻译”成多个按钮逐次点击。Copilot用输入自然语言取代单击,就是将“分解、翻译、逐次点击”的工作全部交由软件来实现了。Microsoft 365 Copilot原理介绍可以想象,一旦有更多的软件实现了这种交互模式,那么让产品经理头秃的“功能VS易用性”、“有限的显示屏幕VS庞大的功能集群”等矛盾将不复存在,让用户头大的学习成本也将大大降低。微观点看,爷爷奶奶们将不用再站在大街上捧着手机无所适从;宏观点看,软件交互设计也许从未如此贴近人本主义:任何人都能用、易用、优雅地用。1.MetaHuman Animator
3月23日,Epic Game首次展示了面部动捕方案Metahuman Animator。不仅在几分钟内实现了高精度的面部动画还原,表演中细腻的个性和细微的动作变化也全部复刻,可以满足3A游戏开发和好莱坞电影的要求。面部动画制作的时间和门槛将大幅降低,独立工作室甚至业余爱好者都能上手。Metahuman Animator发布现场
这是“游戏AI”和“虚拟人生成”这两种综合性AIGC场景迈向商业化成熟的重要信号。小众游戏将迎来春天,一直被国内游戏行业轻视的「内容设计」将逐步成为重点;3D小白建立自己的虚拟形象将和使用「剪映」剪辑一样简单。据Meta AI宣传,Make-A-Video可以根据输入的自然语言,生成5s短视频。同时支持图片转视频、2张类似图片补全变化视频、根据视频生成相似视频等。Make-A-Video官方示例
不过,目前生成的作品存在很多瑕疵:分辨率低、细节少、仅局限于简单和场景&动作等。在这些技术问题还没攻克之前,可以先Mark一下~Google家的文字生成视频工具,能生成2min左右的视频,且匹配度高。Make-A-Video能做到的Phenaki也能做到,二者目前的产出水平不相上下,所以同样先持观望态度。
Phenaki官方示例
RawNeRT致力于实现用图片生成3D,从而降低3D建模渲染的时间和门槛。该项目目前仍处于开发中。NeRF模型在3D内容生成领域广受关注,其成熟对于虚拟人创建、3D训练环境构建、增强现实、线上游戏和电影特效等都具有重要意义。DreamFusion能实现通过自然语言生成3D模型的功能,同样也在开发中。DreamFusion官方介绍
可以发现,Google在放长线钓大鱼,主要将心力集中在了“2D到3D生成”、“多模态理解结合生成”等更高难度的AIGC领域。1. Magic3D
同样也是通过文字描述生成 3D 模型的 AI 工具。开发者声称其建模速度能比DreamFusion快两倍,同时支持基于提示词编辑已经创建好的3D模型。Magic3D官方示例
这是一个用于生成交互式 AI 虚拟形象的技术平台,能够连接 NVIDIA 在语音AI、计算机视觉、自然语言理解和模拟等方面的技术。比如Audio2Face(音频转面部动画)、Animation Graph(实现动态效果)、Audio2Gesture(音频转姿势动作)等。该平台上创建的虚拟形象具备光线追踪3D图像效果,并且可交互:不仅可以看到、说话,还可以谈论各种主题。 此外,Omniverse本身是个异地协同设计平台,可以搭载目前主流的大部分设计软件。与常规的流水线协作模式不同,团队成员在Omniverse可以同时进行同一个项目的设计,实时看见其他人的工作进度和整体设计效果,对效率的提升立竿见影。这无疑是未来设计协作的主要趋势。限于篇幅,本文主要介绍了大厂在AIGC辅助设计方面即将开放的工具。我们不仅知道了这些工具能做什么,也基于此对自己未来的工作模式和能力结构培养有了预期,那么就行动起来吧~ © 版权声明
本文转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权或其它疑问请联系
AIGC工具导航或
点击删除。