+ 我要发布
我发布的 我的标签 发现
浏览器扩展
斑点象@Edge

美图WHEE - AI视觉创作的灵感激发器

美图WHEE是一款AI绘画与图片生成器,提供一站式AI视觉创作服务。WHEE不仅会画也会修图,各种AI修图功能一应俱全。使用门槛低,用户只需用自然语言表述需求,就能轻松上手。在画廊中,用户可以欣赏并学习来自多领域创作者的精美作品,为创作提供丰富的灵感来源,进而促进二创和设计师间的交流与合作。 美图WHEE提供文生图和图生图功能,你只需要输入提示词,AI就能根据提示词画出对应的图像;也可以导入一张照片,AI会生成多种风格的绘画。你可以训练自己的专属风格模型,使AI生成的图像更符合自己的审美。 WHEE应用场景 艺术创作:艺术家或设计师可以使用这个平台来创作新的艺术作品。 教育:教师可以使用这个平台来教授AI和艺术的交叉领域。 娱乐:普通用户可以使用这个平台来体验AI创作,享受创作的乐趣。 创作说明 选择一个感兴趣的主题,例如历史、科幻、爱情等 设定一个具体的场景和背景,例如时间、地点、人物等 美图WHEE——AI视觉创作的灵感激发器,根据这个创作指南,我们应该怎样创作? 确定一个中心冲突或问题,例如对抗、追求、探索等 描述主要人物的性格、动机、目标和行动 利用对话、描写、比喻等手法来展现故事 的发展和高潮 结束故事时, 要有一个清晰的解决方案或启示,让读者有所收获或感动 你只需要输入文字等创意描述,并选择自己喜欢的模型风格,点击立即生成即可获取由美图AI创作的一幅画作。附件不支持打印如果你能够使用AIGC产品创作,具有创新、审美能力,是走在技术前沿的人,就来加入我们吧! 文生图教程 界面介绍 点击进入“文生图”后在左侧输入你的创意内容,设定风格模型与生成参数,即可在右侧一键生成创意图片。 创意描述 创意描述内容是文本生图的核心内容 ,需要简明的词语组合对所要展示的创意进行描绘,如:“中国山水画,群山耸立,云雾缭绕”。无需复杂的语句,尽量以简短的名词,词组输入,并以逗号隔开,让AI更好的理解你的想法。整体输入细节如下: • 多使用专业艺术的关键修辞,如下面的通用的一些针对画面精细程度的描述:虚幻引擎,辛烷渲染,3D渲染,杰作,最好质量,高分辨率等,都是通用的一些画面修饰。 • 可在需要强调的词语两次增加()来增加权重,如:“(半身像),粉色头发的娃娃特写,一幅细致的画,幻想艺术,古维兹风格的艺术作品水汪汪的大眼睛,美丽的粉色小女孩”,就是要强调画面以半身特写为主。 • 描述词可用英文输入,前半段形容重要的场景构造,中间部分为人物与环境细节,后半段可增加针对画面艺术体的描述,如:intricate, a girl in the street, alley, (1girl), (messy blue hair:1.4), (beautiful detailed glowing blue eyes:1.2), makeup, earrings, choker, masterpiece, best quality, high res, realistic, cinematic lighting, looking at viewer, (cyberpunk:1.4), (t-shirt), (cargo pants), (coat), (open coat), anime, beautiful face,2.5D,unreal engine, octane render, 3 d render, 错综复杂,1个女孩在街上,小巷,(1个女孩),(凌乱的蓝色头发),(美丽精细的发光蓝眼睛),化妆,耳环,颈圈,杰作,最好质量,高分辨率,高度真实感,戏剧灯光,看向观者,赛博朋克,T恤,紧身裤,外套,敞开的外套,漫画,美丽的脸,2.5D,虚幻引擎,辛烷渲染,3D渲染 • 可输入不想要的内容来减少干扰因素,如只需要一个风景优美的图片而不需要人物,就可在负向输入框内写入人物,人等名词。 模型选择 选择对应风格的模型可根据创意描述生成相关的图片,大模型配合风格模型可组合出不同的画风。 其他基础的参数 1. 尺寸与比例: 建议一开始跑图的时候选择较小的尺寸以减少耗时,等有自己满意的风格图片时再将尺寸改大,人物照片可以选择竖图与正方形比例,风景可选择横构图。 2. 创意相关性: 控制图片生成过程中遵循倡议描述的程度越高,图像就会越贴合描述内容,但较高的程度会降低本身AI的创意性,建议值可在中间偏低的位置。 3. 采样步骤与采样器: 不同的采样器的耗时与效果会不同,可以多次尝试不同的采样器获取最佳效果,首次可选择默认的快速采样Euler A。采样步骤越高可影响出图速度,通常25左右即可。 4. 参考图片: 根据你上传的图片进行图生图,将创意风格套用在这张图上,在使用此功能时注意比例设置与参考图的比例是否近似否则会被裁剪。 5. 画面控制: 可通过ControlNet模型进行画面引导,如导入一张希望的人物姿态照片可用姿态检测模型来引导最终生成的图片符合你的姿势设想。或使用深度模型控制场景的空间结构。