试完GPT-4o画图,我第一次觉得人类设计师有点危险了网!

试完GPT-4o画图,我第一次觉得人类设计师有点危险了

游戏迷

试完GPT-4o画图,我第一次觉得人类设计师有点危险了

2025-03-30 18:02:55 来源:网络

  来源:快刀青衣

  我作为得到AI学习圈的主理人,开圈第一天的直播里,就给大家演示过怎么用AI生成图片。

  当时我还专门用Midjourney,给大家做了一批手机壳的图。

  不过不得不说,那时候AI画图的门槛还是挺高的。我的小本本上记了很多优秀的指令词,爱学习的我还坚持每天去官网,找一张别人做的图,去研究人家的指令词里有什么奥秘。

  但这种“背题库”式的努力,在AI飞跃之后,其实一下子就被抹平了。很快,大家就又回到了同一起跑线上。

  我有这个感触,是因为3月26号,OpenAI旗下的GPT-4o基础模型迎来了一次更新。

  说实话,一开始我并没怎么在意。毕竟在OpenAI的产品里,不管是那款主打推理能力的o1,还是一个月200美金的o1Pro,关注度都远远盖过了4o。

  但这次4o最让我惊艳的,就是它的生图能力。

  01

  聊聊我试用后的四个感受

  我试用了一圈,跟大家说说我感受最深的地方。

  第一个感受,就是图的质量真的太逼真了。

  我还专门翻出了2023年2月,自己第一次用AI生成的图片。

  当时我让它画一对80年代的青年男女,坐在广场上。最后出来的效果,用“惨不忍睹”来形容,都是在夸它。

  转眼两年过去了,我用一模一样的指令词,让GPT-4o重新画了同样一张图。

  把两张图片放在一起一对比,你会有种恍然的感觉——原来AI在它自己的世界里,已经悄悄迭代了这么多。

  2023年AI作品

  2025年AI作品

  我的第二个感受是,现在中文也能直接生成在图上了。

  我以前经常建议大家在做海报的时候,用AI先画一个背景氛围图。但如果你想在图上加个标题或者口号,还得跑去美图秀秀或者Photoshop手动加文字。

  而这次4o直接就能在图上生成中文了。虽然偶尔会出点乱码,但大部分时候,文字都能准确地呈现出来。

  当我看到它能写中文的那一刻,我脑子里第一反应是:“要是我说一句话,它就能换个更好看的字体,那该多好。”

  你看,人类就是这么不知足。

  第三个感受是,现在可以直接把一张照片改成宫崎骏那种动漫风,或者换成别的风格。

  这两天你刷朋友圈,估计已经看到不少类似的动漫图了,那大概率就是用4o新模型做出来的。

  我也没忍住,拿了我和罗胖、脱不花的合影试了一下,效果挺有意思。

  第四个感受是,它现在可以一句话改图。

  这个功能真的是让我眼前一亮。因为GPT-4o的理解能力确实强,只要你把需求说清楚,它就能听懂、然后立刻开工。

  我试了几个特别日常的场景,效果都很不错。

  比如,我扔一张图片进去,说“把衣服颜色改成蓝色”,它立马就换了。

  再比如,我扔两张图进去,说“合并一下”,它就直接给我融合成一张新图。

  还有一次,我拍了张办公桌的照片,让它把桌上的两个手办抠出来,它转头就给我做了一张带透明背景的图,只有那两个手办。

  这就意味着,以后像做广告海报这种事儿,只要你说得明白,AI听得懂,那就能直接干,效率高得惊人。

  当然,AI也不是每次都能成功。

  比如有一次,我让它把三个人的合影,全都换成阿根廷队服,它直接告诉我——这活儿有点难。

  我就追问它为啥搞不定,它说这张图里三个人都穿着白衬衫,背景也是灰白的,要换得准确,有点费劲。

  然后它还特别认真地给我提了两个方案:一个是把三个人分别抠出来,单独换衣服,再合成回去;另一个是它先给我换一个人的衣服,发我看看效果,如果OK,它再继续换其他两个。

  说实话,看到它这套回复的时候,我真替不少不是特别出挑的设计师捏了把汗。我们先不说技术水平、工作速度,光是它这沟通能力,就已经把很多人类设计师比下去了。

  这次4o在生图上的进步,其实不全是AI自己变强了,更关键的,是背后有人类反馈强化学习在助力。

  OpenAI专门找了上百人的训练师团队,一起盯着AI生成的图,一个个去标注里面的错别字、失真的细节,或者那些畸形的手脚。然后再通过强化学习,不断地训练它,慢慢让AI学会怎么更精准地听懂人话、照着做事。

  02

  这会带来什么变化?

  说完带给我的四大感受,我来说一下接下来可能产生的变化。

  第一个变化,是过去两年特别火的SD图像工作流,热度可能要慢慢降下来了。

  以前像影楼、学校这种机构要用,成本高、上手难,门槛不低。但现在4o这个版本一出来,一些追求简单效果的AI智能体工作流,一下子就显得没那么必要了。

  从这个细节来看,我们现在研究的AI工作流,其实也很可能只是个过渡方案。解决具体问题的小工具肯定还会有,但不一定非得用“工作流”这套复杂方式。

  因为现在,不管是在扣子还是其他地方做出来的那些智能体,更多还是偏个人用来自己玩、或者展示能力的,还很难真正嵌进企业的工作流程里去。

  第二个变化,就是对很多有想法的专业人士特别友好。

  比如职场上要做一张海报、一个Logo,学校老师想画一张课件插图,或者做个物理实验的示意图,这些现在都可以直接交给AI来搞定。

  而且随着AI图像质量越来越高,我们也可以把画出来的图,继续扔进可灵、海螺这些AI视频工具里,让它们自动生成短视频。

  我自己就试了一把。我先让GPT-4o画了一张《桃花源记》洞口的画,然后把图扔进可灵,几分钟就变成了一段小视频。

  第三个变化,是很多项目在前期阶段,周期会被大大压缩。

  不管是企业里的产品研发,还是广告公司的概念提案,现在每个人都可以先把自己的想法交给AI画出来,然后团队再一起看图讨论。

  这样一来,除了交流理念之外,还能激发出更多新的创意,效率也高了不少。

  第四个变化,是对那些写公众号的自媒体同学,真的太友好了。

  以前光是找一张配图就得折腾半天,要是只是浪费点时间也就算了,最怕的还是用了不该用的图,还会被一些无良机构盯上、搞版权敲诈。

  但现在不一样了。你只要脑子里有画面,直接把想法描述给GPT-4o,它就能帮你画出来。如果你连画面感都没有,那就把你写的文字扔过去,让它根据内容自动配图。

  这个场景我也亲自试过了,效果图放在了文章末尾,大家可以自己感受一下。

  我还特意翻了下自己的Midjourney账单,发现我第一次付费是2023年3月17日,10美金,到现在整整付了两年。但这次4o的更新,说实话,是我第一次认真动了“要不要退订Midjourney”的念头。

  然后,我脑子里一下就蹦出了那句经典台词:“以前陪我看月亮的时候,叫人家小甜甜;现在新人胜旧人了,叫人家牛夫人。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:韦子蓉