本篇总结自GitHub上近期的一个帖子。算是个新闻吧。如果喜欢本文,请不要吝惜免费的点赞!谢谢~

原帖标题:

[Feature Request] Add generating hand depth map tab · Issue #388 · Mikubill/sd-webui-controlnet · GitHub

以下内容来自这个帖子

https://github.com/Mikubill/sd-webui-controlnet/issues/388

我注意到,一位叫Fannovel16的网友在Controlnet插件讨论区留言并提出了一种可能的解决方案:将人物拆分为身体骨骼和手部姿态两部分分别识别。身体部分用Openpose骨骼加以识别,而手部姿态用MiDaS方法获得深度图(从手部照片或者三维模型截图中取得深度图),再将两者结合起来。这位网友还给出了几张例图:

例图1


例图2


例图3(失败率较高?)


例图4

AI生成手部的能力一直很糟糕。Openpose插件的出现给出了一个可能的解决思路,然而实际操作发现绘制手部依然非常困难。即便拥有手部姿态的骨骼图,AI也无法准确按骨骼绘制手指的姿态。手指的关节数众多,姿态极为复杂,并非所有姿势都会被素材记录下来。Openpose中手部拥有21个节点,而全身骨骼才有18个节点而已。开发新的“绘制手部”插件,一定是一众程序猿们的目标。

这个方法我测试了一下,可行。就看如何结合起来了。

也许突然有一天,AI突然就学会“画”手了呢。