人人都能玩赚AI绘画

2023-10-08 09:11:16 浏览数 (1)

思维导图

1.5 AI绘画工具

  1. SDWebUI的全称是Stable Diffusion Web UI。它是一个基于Gradio库的Stable Diffusion浏览器界面。
  2. 基于Stable Diffusion开源项目二次开发的国内AI绘画平台,对初学者比较友好,功能多样,操作简单。直接搜索“Vega AI官网”,不用安装,直接注册登录就可以用。
  3. 微信中的AI绘画小程序有小狸猫、MewXAI、灵创、意间AI绘画、无界AI等。它们的操作相对简单,大部分都有“一键同款”的功能,看到心仪的图片,直接点击“一键同款”就可以了。

项目

描述

特点

SDWebUI

基于Gradio库的Stable Diffusion浏览器界面

Stable Diffusion Web UI

Vega AI

基于Stable Diffusion二次开发的AI绘画平台

初学者友好、功能多样、无需安装、直接使用

微信AI绘画小程序

微信平台的AI绘画功能

操作简单、大部分有“一键同款”功能

2.2 Midjourney提示词

一个完整的Midjourney基础提示词结构是“/imagine prompt:提示词 参数”,如

代码语言:javascript复制
/imagine prompt:cat--v 5。

序号

元素名称

示例

1

主题

动物、人物、地点、物体等

2

环境

室内、室外、太空、纳尼亚、水下、翡翠城等

3

媒介

照片、插图、素描画、雕塑、挂毯等

4

照明(光源)

星光、柔光、环境光、荧光灯、霓虹灯、摄影棚灯等

5

颜色(调色板)

鲜艳、柔和、明亮、单色、彩色、黑白等

6

心情

沉重的、平静的、激动的等

7

画质

4K、8K、高清等

8

渲染

实时渲染、离线渲染、云渲染等

9

纹路

豹纹、渐变、线状等

10

时间

19世纪60年代、20世纪80年代、21世纪、早上、下午、晚上等

11

镜头

近景、远景、全景、中景等

一个画面大致由以下几种元素组成,但不用都写出来,我列举了一些,供大家参考。

  1. 主题:动物、人物、地点、物体等
  2. 环境:室内、室外、太空、纳尼亚、水下、翡翠城等
  3. 媒介:照片、插图、素描画、雕塑、挂毯等
  4. 照明(光源):星光、柔光、环境光、荧光灯、霓虹灯、摄影棚灯等
  5. 颜色(调色板):鲜艳、柔和、明亮、单色、彩色、黑白等
  6. 心情:沉重的、平静的、激动的等
  7. 画质:4K、8K、高清等
  8. 渲染:实时渲染、离线渲染、云渲染等
  9. 纹路:豹纹、渐变、线状等
  10. 时间:19世纪60年代、20世纪80年代、21世纪、早上、下午、晚上等
  11. 镜头:近景、远景、全景、中景等

比如,“男孩 教室 插图 荧光灯”,男孩就是主题,教室就是环境,插图就是媒介,荧光灯就是照明(光源)。它的提示词结构是“/imagine prompt:

代码语言:javascript复制
boy classroom illustration fluorescent light--v 5

中文提示词

英文提示词

有趣的

playful

正视角

eye-level

斯堪的纳维亚风格

Scandinavian

儿童房

nursery

装饰墙

accent wall

编织

knit

木制

wood

毛绒玩具

plush toys

奇特的装饰

whimsical decor

有趣的图案

fun patterns

柔和色调

pastels

鲜艳的装饰

bright accents

宜家

IKEA

柔和

soft

温暖的灯光

warm lighting

深圳

Shenzhen

下午

afternoon

快乐

joyful

孩子气

childlike

现代

modern

4K

4K

在实际操作中,大家可以按照自己想要的画面去组合提示词,越靠前的词,权重就越大。 比如,下面这幅图是我使用了14种元素(构图、拍摄角度、风格、房间类型、焦点、纹路、细节、调色板、品牌、照明、地点、时间、氛围、建筑风格)组合起来的画面,是不是很精美? 提示词:有趣的,正视角,斯堪的纳维亚风格,儿童房,装饰墙,编织,木制,毛绒玩具,奇特的装饰,有趣的图案,柔和色调,鲜艳的装饰,宜家,柔和,温暖的灯光,深圳,下午,快乐,孩子气,现代,4K /imagine prompt:playful,eye-level,Scandinavian,nursery,accent wall,knit,wood,plush toys,whimsical decor,fun patterns,pastels,bright accents,IKEA,soft,warm lighting,Shenzhen,afternoon,joyful,childlike,modern,4K--ar 16:9--v 5

主题

详情

结构

图像提示词

在提示词前添加图像网址来影响图像的样式和内容。

文本提示词

添加描述图像的文本,助于生成意想不到的图像。

参数

影响图像生成方式的因素,放在提示词的结尾处。

长度

提示词简短

单词或表情符号可以生成图像,简短的提示词依赖于默认风格。

提示词描述

使用具描述性的提示词得到独特效果,但注意不是越多越好。

语法

语法理解

Midjourney Bot不理解人类的语法、句子或单词,所以选择合适的提示词很重要。

同义词选择

使用更具体的同义词可能会得到更好的效果。如使用“巨大的”代替“大”。

组织语言

可用逗号、括号和连字符组织语言,但Bot可能不完全理解。

高级提示词

结构

高级提示词可以包括一个或多个图像提示词、一个或多个文本提示词和一个或多个参数。

  1. 图像提示词:可以在提示词中添加图像网址,以影响图像最终的样式和内容。图像网址始终位于提示词的最前面。
  2. 文本提示词:添加你想要的图像的文本描述,好的提示词可以帮助Midjourney生成意想不到的图像。
  3. 参数:会影响图像生成的方式,通常放在提示词结尾处。
长度

提示词可以非常简单。单个单词甚至连表情符号都可以生成一张图像。非常简短的提示词将严重依赖Midjourney Bot的默认风格,因此,使用更加具有描述性的提示词可以得到更加独特的效果。但是,提示词并不是越多越好,请将注意力集中在你想要创建的图的描述上。

语法

Midjourney Bot不像人类那样理解语法、句子或单词,所以提示词的选择很重要。在许多情况下,使用更具体的同义词,生成的效果会更好。比如,用“巨大的”“庞大的”“极大的”来代替“大”。还可以使用逗号、括号和连字符等帮你组织语言,不过,Midjourney Bot可能无法准确理解它们。

2.3 Midjourney参数

功能/模型

描述与用法

动漫模型切换

通过在Bot中键入“/settings”选择“Niji version 4”或“Niji version 5”切换至Niji 4或Niji 5模型。

Niji 4

使用--niji 4启用,偏向动漫风格。

Niji 5

使用--niji 5启用,偏向写实动漫风格。

Niji 5 (expressive风格)

使用--niji 5--style expressive启用,更写实,偏游戏原画风格。

Niji 5 (cute风格)

使用--niji 5--style cute启用,偏动画风格且更显可爱。

Niji 5 (scenic风格)

使用--niji 5--style scenic启用,常用于风景画。

Testp模型

使用--testp启用,适合摄影类作品。 示例:“可爱的猫”对应于/imagine prompt:cute cat--testp

宽高比设定

使用--aspect或--ar设定图像的宽高比。可以使用例如9:16的比值来设计图像或获得图像的实际宽高。

动漫模型(Niji 4和Niji 5) 你可以通过在Bot中键入“/settings”来切换你想要的模型,选择“Niji version 4”或者“Niji version 5”来启用Niji 4或者Niji 5。

使用--niji 4来启用Niji 4,这个模型偏动漫风格。

使用--niji 5来启用Niji 5,这个模型偏写实动漫风格。

使用--niji 5--style expressive来启用Niji 5。这种风格更加写实,偏游戏原画风格。

使用--niji 5--style cute来启用Niji 5。这种风格更显可爱,偏动画风格。

使用--niji 5--style scenic来启用Niji 5。这种风格多用于风景画。

使用--testp来启用Testp。这个模型适合摄影类作品。 提示词:可爱的猫 /imagine prompt:cute cat--testp

使用--aspect或--ar来设定宽高比,也就是尺寸比值,如下图所示。

我们可以使用9:16的宽高比来设计一个图像,或者使用它们获得图像真正的宽和高。

提示词:可爱的猫 /imagine prompt:cute cat--ar 16:9--v 4

使用--chaos或--c来指定混沌度,表示生成图的变化多样性,取值范围为0~100,默认值为0。值越小,生成图的稳定性越高;值越大,生成图的变化多样性越强,就越有可能出乎意料。

使用--no可以让模型尽量避免在图中生成对应的元素。

提示词:可爱的猫 /imagine prompt:cute cat--no yellow--v 5

提到--no,就不得不讲到::符号,这个符号表示提示词权重。--no<prompt word>还可以用::-.5来表示,它们的生成效果是一样的。 具体来讲,::这个符号既可以跟在一个提示词后面(不能有空格)用来告诉Midjourney Bot进行分词,还可以增加一个数字表示这个提示词的权重,默认值为1。不过,这个权重值是归一化处理的,比如,hot::1 dog、hot:: dog::1、hot::2 dog::2、hot::100 dog::100效果是一样的,即hot和dog都是分词且权重一样;又比如,cup::2 cake::、cup::4 cake::2、cup::100 cake::50效果是一样的,即cup和cake都是分词,但cup的权重更大。

渲染质量(Quality) 使用--quality或--q设置渲染图像的参数,以得到更高质量的生成图。默认值为1,取值范围为<.25,.5,1,2>(.25和.5分别是0.25和0.5)。数值越大,渲染成本越高,图的质量可能就越好;反之亦然。需要注意的是,这个参数并不影响分辨率,它改变的是图像的细节。

风格(Style) Midjourney V4中有三种风格略有差异的模型:4a、4b、4c(默认),可以通过--style来指定风格。

提示词:可爱的猫 /imagine prompt:cute cat--v 4--style 4a

Midjourney所训练的绘画模型有它所偏爱的艺术色彩和创作形式,我们可以通过--stylize或--s来设定其艺术偏向性的程度。几种不同版本模型Stylize的默认值和取值范围,如下图所示。

Stylize值越低,生成图的艺术偏向性越低,与提示词的关联度就越高;Stylize值越高,生成图的艺术偏向性越高,与提示词的关联度就越低。

使用--tile可以生成重复图块的图像,比如织物、壁纸和纹理的无缝图案。 下面是用提示词生成的贴片图经过多片拼接得到的图。可以看到,多个贴片拼接在一起时,花纹确实是无缝衔接的。 提示词:彩色猫条纹 /imagine prompt:colorful cat stripes--test--tile

在使用Test和Testp版本模型时,可以用--creative使生成图更具变化性和创造性。

提示词:可爱的猫 /imagine prompt:cute cat--test 提示词:可爱的猫 /imagine prompt:cute cat--test--creative

使用/blend可以快速上传2~5张图像,分析每张图像的美学理念,并将它们融合成一张新的图像。 /blend最多可以使用5张图像。如果在提示词中要使用5张以上的图像,请使用/imagine命令和图像提示词。 /blend与文本提示词不兼容。如果需要同时使用图像提示词和文本提示词,请使用/imagine命令和图像提示词。 使用/blend后,系统将提示我们要上传2张图像。当使用移动设备时,可拖放图像或从图库中添加图像。若要添加更多图像,请选择“选项”字段并选择“image3”“image4”“image5”,如下图所示。

/blend命令可能比其他命令的启动时间要长,因为在Midjourney Bot处理我们的请求之前,我们必须先上传图像。 混合图像默认使用1:1长宽比,但我们可以使用“dimensions”字段在正方形长宽比(1:1)、竖向长宽比(2:3)或横向长宽比(3:2)之间进行选择。 自定义后缀会被添加到/blend提示词的末尾,就像其他/imagine提示词一样。作为/blend命令的一部分,指定的长宽比会覆盖自定义后缀中的长宽比。 需要注意的是,为了获得最佳效果,我们要上传与自己期望结果相同比例的图像。

图像权重(Image Weight) V5版本模型的默认值为--iw 0.5,取值范围为0.5~2。当这个参数的值较大时,表明图像对于当前绘制新图的任务权重较高;反之亦然。

提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 0.5--v 5

提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 1--v 5

提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 1.5--v 5

提示词:原图链接 可爱的猫 /imagine prompt:https://s.mj.run/kMDsfF-N5OI cute cat--iw 2--v 5

功能/命令

描述

示例/用法

/prefer remix

打开或关闭合成模式,允许在每次变化中修改提示词。

/prefer remix

/describe

上传图像,获得4个描述该图像的文本提示词。

/describe(后跟图片上传)

--video

保存初始网格生成任务的过程为视频。V4和V5版本模型不支持此功能。

/imagine prompt:cat--video--v 3

上采样(Upscale)

从低分辨率图像选项的网格中选择一个图像进行高分辨率渲染。

选择网格图像中的一个进行上采样

--uplight

使用Light上采样器在原图的基础上适量增加细节。

/imagine prompt:cat--uplight

--upbeta

使用Beta上采样器不增加太多额外的细节。

/imagine prompt:cat--upbeta

--upanime

使用动漫上采样器,优化插图和漫画风格。

/imagine prompt:cat--upanime

--chaos / --c

指定生成图像的随机性水平。范围: 0-100。默认值: 0。

/imagine prompt:cute cat--c 50

--no

模型将避免在图像中生成指定的元素。

/imagine prompt:cute cat--no yellow

::

表示提示词权重的符号。

hot::1 dog, cup::2 cake::

--quality / --q

设置图像的渲染质量。不影响分辨率,只影响细节。可选值: .25, .5, 1, 2。默认值: 1。

/imagine prompt:cute cat--q 2

--style

从Midjourney V4模型中选择一种风格。可选: 4a, 4b, 4c(默认)。

/imagine prompt:cute cat--style 4a

--stylize / --s

设置生成图像的艺术偏见程度。

/imagine prompt:cute cat--s high

--tile

生成适用于纹理、织物、墙纸的重复图案。

/imagine prompt:colorful cat stripes--tile

--test

与Test和Testp模型版本一起使用。

/imagine prompt:cute cat--test

--creative

使生成的图像更加多变和创造性。

/imagine prompt:cute cat--test--creative

/blend

合并2-5张图像,分析它们的美学,并创建一张新图像。与文本提示不兼容。

/blend(后跟图片上传)

在Midjourney中可以使用/prefer remix打开或关闭合成模式。在合成模式下,网格图的V1、V2、V3、V4、V5按钮动作会受到影响,它允许我们在每次变化中修改我们的提示词。对于上采样的图,要使用合成功能,可以点击“Make Variations”按钮。

使用/describe命令并上传图像,即可获得4个描述该图像的文本提示词;然后点击下方的按钮,生成每个对应的图像。

使用--video可以让Midjourney将初始网格生产任务的过程保存为一段视频。不过,V4和V5版本模型不能生成过程视频。 下面是使用提示词生成图像的过程的视频示例。 提示词:猫 /imagine prompt:cat--video--v 3

要想获得这个视频,我们需要通过信封表情符号()给该任务发送一条互动消息,Midjourney Bot会在给我们回复的消息中附上视频地址。

使用Midjourney生成图像时,Midjourney通常会先生成一个低分辨率图像选项的网格供我们选择。当网格图像中有合适的图时,我们就可以选择对其进行上采样(Upscale)来获得一张尺寸更大、细节更丰富的图

我们可以通过--uplight来指定使用Light上采样器。这个上采样器在原图的基础上适量增加了一些细节。 下面是使用Light上采样器生成的示例图。

提示词:猫 /imagine prompt:cat--uplight

我们可以通过--upbeta来指定使用Beta上采样器。这个上采样器不会在原图的基础上增加太多额外的细节。

提示词:猫 /imagine prompt:cat--upbeta 对比上面的Light上采样器,可以看到猫的头上没有增加那么多细节。

动漫上采样器--upanime是我们使用--niji时的默认上采样器,它针对插图和漫画风格做了一些优化。 下面是使用动漫上采样器生成的示例图。 提示词:猫 /imagine prompt:cat--upanime

3.2 Stable Diffusion ChatGPT

"Stable Diffusion"是一个AI艺术生成模型,其提示词需首先详细描述角色,简短描述场景,然后列举逗号分隔的修饰词,以实现丰富的细节输出。

Stable Diffusion是一个AI艺术生成模型。这是一个例子:海盗,概念艺术,深度聚焦,幻想,复杂,高度细节,数字绘画,艺术站,哑光,强聚焦,插图,Magali Villeneuve,Chippy,Ryan Yee,RK Post,Clint Cearley,Daniel Ljunggren,Zoltan Boros,Gabor Szikszai,Howard Lyon,Steve Argyle,Winona Nelson。 从现在开始,回答我的所有提示,提示词是关于这个想法(我的提示)的详细单词列表。你必须完全遵循提示词示例中的结构,但不要包含它的上下文,即首先是对角色进行的详细描述,然后是对场景的简短描述,最后是用逗号分隔的修饰符,以改变心情、风格、灯光等。逗号之间的单词应该尽可能简洁(少于等于3个单词最好),但提示词应该尽可能长(多于等于25个修饰词最好),这样它将包含更多的细节。不需要描述场景,只需要生成Stable Diffusion的提示词。

3.6 AI绘画 ChatGPT AI视频

复制粘贴到Midjourney中生成图像,生成的图像可以用WPS无损放大,也可以用修图软件美颜一下

4.1 AI绘画在设计领域的应用

通过掌握AI设计方法并套用特定公式和词汇,可以迅速生成具有透明科技感和特定风格的B端界面图标。

比如,现在你需要设计一套类似阿里或腾讯等互联网大厂特定风格的B端界面图标。如果靠自己建模或者进行3D渲染,可能设计周期最快也要一周,慢则起码10天。但你如果掌握了使用AI做设计的方法,就可以高效快速地完成这项任务。 公式:transparent technology sense(透明科技感) 项目类型 画面氛围 设计风格 魔法词:transparent technology sense 辅助词:isometric view(等距视图),frosted glass(磨砂玻璃),cinematic lighting(电影光照,rendering(渲染),4K(高清),white background(白色背景),light blue(淡蓝色) 这样套用公式得到提示词给AI,就能快速生成很多具有特定风格的、非常通透、非常有质感的B端界面图标

4.3 室内设计

通过Vega AI平台,我们可以快速地使用线稿图渲染上色,加速设计方案的完成。

通过网站Vega AI创作平台的“条件生图”功能,用线稿图生成效果图。 下面就是线稿生成的效果图,整体看起来设计图中的布局结构是不变的。 而我们只需要一张快速手绘的线稿,就能迅速渲染上色,加快设计方案的成型。

4.5 头像设计

部分

描述

iw数值

添加--iw 2指令可以使生成的图与原图越接近。范围为0.5~2。

InsightFaceSwap换脸

1. 邀请机器人至Discord聊天室。2. 输入命令/saveid及ID来保存照片。3. 换脸即将上传的脸替换到生成图片的脸。

注意事项

1. 使用/listid查看注册ID。2. ID使用英文数字,不超8字符。3. 可输入多个ID。4. 可覆盖旧ID照片。5. 照片应清晰、正脸、无遮挡。6. 避免上传戴眼镜或过度美颜照片。7. 每日50次命令限制。8. 生成效果不定。9. 仅限个人用途。

iw数值:基本描述语句后边可以添加指令iw,格式是:--iw 2,取值范围是0.5~2,数值越大,生成的图和原图越接近。

利用InsightFaceSwap换脸

  1. 邀请InsightFaceSwap机器人到你的Discord聊天室里(就像添加Midjourney Bot到你的服务器中一样的方式),完成这一步后,你会在聊天室右侧看到下图这样的列表。
  2. 输入斜杠命令/saveid mnls<上传照片>(这里mnls是注册ID,可以设置成任意8位以内的英文字符和数字。保存成功后,新建立的ID会被自动当作默认ID(可以通过/setid idname(s)命令来手动指定默认ID)。上传图片后,按下回车键,出现下图这样的页面就表示命名成功了。
  3. 换脸。其原理就是把我们上传图片的脸换到我们用Midjourney所生成图片中脸的位置。 以上就是使用Midjourney InsightFaceSwap插件生成肖像画的所有步骤。

注意事项:

  1. 可以使用/listid来列出目前注册的所有ID(总数不能超过10个)。也可以用/delid和/delall命令来删除ID。
  2. 注册ID只能用英文和数字,并且不超过8个字符。
  3. 你可以输入多个IDname并用逗号分隔开,以实现多人换脸的效果。例如/setid me,you,him,her。
  4. 可以重新上传新的图片,仍用相同的ID名字,以此来覆盖旧ID的图片特征。
  5. 上传的照片尽量保证: ● 清晰 ● 正脸 ● 无遮挡
  6. 不推荐上传: ● 戴眼镜的照片 ● 由于过度美颜而失去面部纹理的照片
  7. 为了避免自动化脚本,每个Discord账号每天可以执行50次命令。
  8. 不能保证每次生成的效果都很好。
  9. 请仅用于个人用途。

6.2 AI绘画应用设想

未来的婚纱摄影将利用AI技术在室内拍摄后生成多种场景和风格的照片,提高效率、减少成本并增强艺术性。

未来的婚纱摄影领域将会发生巨大的改变。新技术可以让婚纱摄影更加轻松和简单,只需要在室内拍摄一些照片。这样,新婚夫妇可以放松自己,享受拍摄的过程,而不必担心天气和环境的影响。在拍摄后,将照片训练成lora模型,在Stable Diffusion中生成不同场景的婚纱照。这是一种基于AI技术的创新方式,可以根据新婚夫妇的喜好和需求,生成多种不同的风格和场景的婚纱照。这种技术可以使摄影更加轻松自然,同时也可以增强照片的艺术性和美感。生成过程比传统的拍摄加后期制作要快得多,减少了成本和时间。

0 人点赞