Wie die meisten Webseiten nutzen wir Cookies. Nähere Informationen dazu, wie wir mit diesen Cookies umgehen, können Sie in unseren Datenschutzbestimmungen lesen.   Einverstanden
 
 

3D Forum > Messiah wiederbelebt

Messiah wiederbelebt

05.11.2020 20:53
 
CrushDo. 05 Nov. 2020, 20:53 Uhr
Meine Tochter hat schon früher etwas mit Sculptris, 3DCoat und ein ein paar anderen Modelern herum gespielt und ich war überrascht, wie schnell sie das ganze kapiert und damit etwas Hübsches machen kann.

Nachdem ich gerade erst ein wenig mit Rumba experimentiert habe, dachte ich mir, es wäre mal wieder an der Zeit das gute alte Messiah Studio auszugraben um ihr zu zeigen, wie man Animationen selber machen kann. Eigentlich hätte ich das auch mit Modo tun können, aber das ist doch nicht ganz so angenehm und in Messiah finde ich mich einfach sofort blind zurecht.

Als erstes habe ich den nervigen Dongle zuerst komplett virtualisiert und los gings.

Mit Curvy3D habe ich das Modell in Rekordzeit erstellt, dann in 3DCoat ein auto retopo gemacht um ein schönes low-poly Modell zu bekommen und das in Silo noch etwas nachjustiert und mit Meshlab von eventuellen Fehlern bereinigt.

Dann ging auch schon alles direkt in Messiah Studio los. Zuerst mußte ich noch kurz auffrischen was man damit alles machen kann, wie welche Effekte klappen und dann habe ich alles geriggt, vollständig dynamisch rein mit shader nodes texturiert, ein paar kleine Häärchen über den Körper gelegt und komplett mit allen möglichen möglichst automatischen Effekten versehen.

Außer normales Bone Deforming ist nun auch Skin Sliding über die Knochen Deformation eingebaut, der gesamte Körper ist mit einer Softbody Simulation belegt und beim Bewegen wabbeln die Speckrollen nun schon hübsch vollautomatisch nach, die Ohren, die Nase und der Schwanz können von selbst über Splines gesteuert hin und her flapsen und nach wackeln und die Faltenbildung wird auch über einen Tension Morpher gesteuert.

Als nächstes muß jetzt noch ein etwas umfangreicheres Face-Rig und vielleicht ein paar Morphs her, dann wird alles mit externen Controls und Geometry Controllern auf dem Modell versehen und schon könnte ich theoretisch mit dem richtigen Animieren los legen. Ein paar Ideen wie ich z.B. vielleicht Mikrostretching noch in die Hauttextur einbauen könnte um dynamisch textur, struktur und Reflektionsverhalten der Haut anzupassen hätte ich auch schon, da muß ich mit den Effekten noch etwas herum experimentieren und schauen was draus wird. IK / FK switching ist auch noch nicht drin, aber eigentlich fürs erste Animieren auch kaum notwendig.

Ich habe nun zwar erst ein paar Tage wieder mit Messiah Studio beschäftigt, bin aber immer noch ebenso begeistert wie am ersten Tag. Für das Geld kann nur noch Blender Messiah Studio toppen, aber sicher auch nicht alles im Rigging Bereich frei Haus liefern, was damit möglich ist. Die Möglichkeiten scheinen fast unbegrenzt, alle Effekte laufen in Echtzeit und können per MMC Realtime Recording auch in Echtzeit superschnell mit Animationen versehen werden. Einen komplexen Walk-Cycle mit sekundären Animationen kann man da in wenigen Minuten hin bekommen. Das Programm ist zwar unglaublich komplex, aber genau dadurch erhalte ich die Kontrolle in der Tiefe, wie ich sie mir eben wünsche. Ein Akyetsu käme da z.B. nie im Leben ran und auch Rumba wird sicher noch ein paar Jährchen brauchen, bis es die kompeltte Feature Liste von Messiah enthalten wird.

Die selblaufenden Animationseffekte sind jedenfalls jetzt schon weit über dem Durchschnitt allgemeiner Rigs und funktionieren einwandfrei.

Sollte ich dennoch etwas mehr Power für bestimmte Dinge benötigen, kann ich immer noch Simulationen von Blender oder Modo oder deren Renderer einsetzen.

Auch der uralte mit eingebaute Arnold Renderer ist für Trickfilme mehr als ausreichend und mit den neuen Features von V6 kann man die Renderzeiten drastisch runter schrauben und sogar GI Artefakte beim Animieren mit höheren Reflektionswerten komplett ausschalten - dazu gibts sogar mehrere Methoden. Jedoch denke ich nicht, daß ich nachher fürs Rendern großartig GI benötigen werde, vielleicht für fixe Hintergründe. Ich könnte theoretisch AI Denoiser zum noch schnelleren Rendern verwenden, allerdings ist das nicht sinnvoll, weil bei Animationen Denoiser teils sehr starke Artefakte bei Animationen aufweisen. Das rührt daher, weil die Vor- und Nachfolgeframes momentan noch von keinem Denoiser berücksichtigt werden.

Um aber etwas sinnvolles damit anstellen zu können denke ich gerade noch über 1-2 weitere Protagonisten nach. Das Schwein war eigentlich als Piggeldy vom Sandmännchen-Trickfilm entworfen, kann aber vielleicht mit einem Wolf oder ähnliches ebenso interagieren. Mal sehn, worauf ich als nächstes Lust habe. Ich werde hier dann immer den neuesten Stand posten. Zum Lockdown und über Weihnachten dürfte über den Jahreswechsel ausreichend Zeit da sein um etwas zu tun.
 
 
TilesFr. 06 Nov. 2020, 08:16 Uhr
Bin gespannt. Mit Messiah wurde ich allerdings nie warm. Vor allem weil ich nie eine funktionierende Pipeline nach Unity gefunden habe.
 
CrushFr. 06 Nov. 2020, 11:11 Uhr
Auch nicht mit dem FBX Export oder MDDs?
 
TilesFr. 06 Nov. 2020, 11:48 Uhr
Nein, das haperte jedesmal am Material. Aber ist ja auch egal. Messiah habe ich schon lang weitergegeben.

Ich werde allerdings nie die Geschichte vergessen dass der Entwickler von denen nicht wusste dass zu einem Obj File auch ein MTL File gehört in dem die Materialien definiert sind
 
CrushFr. 06 Nov. 2020, 14:00 Uhr
Wenn die Materialien im Render-Tool sind und Messiah nur zur Animation verwendet wird, benötigt man diese doch gar nicht für den Export? Das ist ja auch kein Modeler.
 
TilesFr. 06 Nov. 2020, 15:03 Uhr
Ja, aber animieren tut man nach dem UV mappen. Und manchmal mappt man auch mehr als ein Material auf ein Mesh. Wie gesagt ich habe nie eine funktionierende Pipeline hinbekommen.
 
CrushFr. 06 Nov. 2020, 22:05 Uhr
Heute mal wieder ein wenig weiter am Rig gearbeitet, IK/FK komplett mit Switch drin. Die IK Goals können nun per Schalter auf die FK Position geschaltet werden um die nicht immer in der Szene suchen zu müssen. Dann heute noch etwas mit dem Renderer weiter experimentiert. Ich muß bei schnellen Bewegungen die Physics noch etwas anpassen, sonst gibt es Vertexsalat.

Ansonsten hier mal ein neueres Einzelbild aus einer Testanimation. Die Borsten muß ich noch etwas überarbeiten, die gefallen mir so noch nicht ganz. Die sollten eher schon fast weiß sein denke ich.
 
 
TilesSa. 07 Nov. 2020, 10:27 Uhr
Bin mal auf die weitere Entwicklung gespannt smile
 
CrushSo. 08 Nov. 2020, 18:18 Uhr
Gestern hatte ich ein paar seltsame Probleme, die ich aber alle finden und mit Workarounds korrigieren konnte.

1.) Meine Controller haben seltsam hin und her gewackelt, wenn ich die Kamera bewegt habe. Nach kurzem Probieren habe ich herausgefunden, daß der Zoomfaktor der Dolly und der Ansicht weitab von gut und böse waren. Das muß irgendwie versehentlich passiert sein. Da die Controls sich auch an der Optik orientieren und selber positionieren, war das irgendwie klar. Die Dolly war also total daneben und mußte einfach nur ausgetauscht werden.

2.) Der Sculpting-Deformer für Corrective Morphs hat immer irgendwelche Faces aus dem Nasenbereich verschwinden lassen. Zuerst dachte ich an einen Fehler beim Rig. Beim Untersuchen des Meshes habe ich aber ein paar Fehler gefunden (N-Gons, Sterne, zu häufig geteilte Kanten, ein paar falsche Normalen) und manuell beseitigt. Danach klappte alles wieder ohne fehlende Flächen. Zum Glück arbeite ich nicht mit Weight-Painting und Messiah kann einfach so die Geometrie unterm Rig austauschen und es klappt alles ohne weiteres Nachbearbeiten vollautomatisch. Ganz nett ist die Idee, daß das Schweinchen beim Schnuppern oder später beim atmen die Nasenlöcher schließen und weiten kann.

Jetzt kann ich jederzeit alles im Nachhinein noch per Sculpting korrigieren oder einfach direkt eigene Gesichtsausdrücke on the fly in die Animation rein modellieren. Sehr praktisch. Wenn das Schwein gegen eine Wand oder auf den Boden platscht brauchei ich also keine Simulation mehr, sondern kann einfach die Wandseite plattsculpten. Natürlich gehen auch jede Art von Übertriebener Deformation und Gesichtsausdrücke damit. Andererseits habe ich noch einen Tension Morpher, mit dem Man z.B. Fußstapfen im Schnee oder eine Gesichtsverformung bei Kollisionen auch ohne Softbodies simulieren kann. Wie gut das funktioniert muß ich irgendwann auch noch genauer austesten.

3.) Nach dem Überarbeiten vom Mesh haben auch plötzlich die fixen Blendshapes funktioniert, die vorher überhaupt nicht während der Animation funktionieren wollten.

Es gab aber leider ein anderes Problem, woran ich nicht, bzw. falsch gedacht hatte. Die Blends werden vor dem Bone-Deformer gemacht, aber leider ebenso vor dem Softbody Displacement. Jetzt hat diese aber die Morphs teilweise komplett kaputt gemacht und ich konnte die Augen z.B. gar nicht mehr komplett schließen, die haben immer offen gestarrt. Da war mir klar, daß sich kontrollierte Morphs und Softbodies einfach irgendwie beißen und ich habe die aus dem Gesicht erst einmal ausgeblendet.

Ich werde noch variable zu- und wegschaltbare Softbodies für das Gesicht ausprobieren, vielleicht kann man das so besser kontrollieren. Mal schaun.

Die Softbodies sind ein wenig schwer direkt am animierten Mesh zu kontrollieren, insbesondere bei kleinen und großen Bewegungen verhält es sich nicht ganz so gut wie ich es gerne hätte. Ich habe schon getestet, ein entsprechend gröberes Mesh als Cage-Deformer für die Softbodies zu verwenden. Dann kann es nicht mehr so leicht passieren, daß Geometrie komplett unkontrolliert verformt wird. Vielleicht funktioniert ein Cage, daß sehr quadratisch aufgebaut ist besser als die Original Geometrie.Ansonsten habe ich noch bei Hautdehnung die Umgebungsbeleuchtung geändert. Gestraffte haut reflektiert anders das spekuläre Licht als lockere Unebene oder gestauchte.

Zwischendrin habe ich auch schon erste Versuche für einen weiteren Charakter modelliert. Aber im Moment bin ich noch nicht so zufrieden. Die Charaktere müssen nicht realistisch aussehen, sollten aber auch irgendwie vom Stil doch zueinander passen. Eigentlich möchte ich gerne Tiere mit viel sichtbarer Haut, damit die automatischen Effekte in der Animation möglichst gut zur Geltung kommen. Solange die Tiere alle Vierbeiner sind kann ich die Rigs dann auch so direkt mit nur kleinen Anpassungen weiter verwenden.

Für Gesichtsanimationen habe ich eine Facecam angehängt, die immer gerade von vorne auf das Gesicht schaut, egal wo sich der Kopf befindet. Das kann man dann benutzen um passend nach den Körperanimationen die Gesichtsausdrücke abzustimmen.

Im Moment bin ich gerade dabei automatisch und manuell zuschaltbare Sehnen, bzw. Adern unter der Haut auszutesten, die je nach Deformation als Normalen-Textur oder Displacement dynamisch zugeblendet werden. Ein paar Muskeln sollten auch noch eingebaut werden.

Ich habe dann auch noch probiert direkt über die Hautoberfläche Kontroller einzubauen. Das geht zwar schon, ist aber wegen der vielen Deformer dann nicht wirklich punktgenau und vermutlich mehr für Grobes zu benutzen. Vielleicht animiere ich auch erst einmal alles komplett ohne automatische Deformationen und schalte die später zu und korrigiere bis es paßt, dann kann man die Kontroller auch besser benutzen.

Das nächste wäre dann noch detailliertere curved und bone basierte Gesichtskontroller aufzubauen. Die Zunge und Zähne hätte ich auch gerne bald drin.

Auf lange Sicht denke ich noch andere Sekunde automatische Bewegungen die Sinn machen zu riggen, wie z.B. Schluckbewegungen, Atembewegungen, automatisches Zwinkern und leichtes Springen der Blickrichtung, automatisches Laufen wäre auch noch etwas. Es gibt viel zu tun und ich will all mein Wissen in dieses Rig einfließen lassen.

Die Haare lasse ich momentan weg, damit man die Hautdeformationen besser sehen kann.

Im Spaß-Bild habe ich die Augen mit dem Morph geschlossen und dann den Rest mit Point-Animation komplett positioniert und verformt. Man kann theoretisch recht performant ein Objekt ohne irgendein Rig auf diese Weise animieren wenn es sein muß und riggen sich wegen eines Kurzauftritts nicht lohnt. Außerdem ist praktisch jede noch so vorstellbare Verformung so machbar.
 
 
CrushDo. 12 Nov. 2020, 15:27 Uhr
So, kurz die Lage. Es gab einige Korrekturen am Rig, mehr Stützknochen, damit durch die Haut-Simulation das ganze nicht wie ein Wackelpudding wirkt.

Das mit den Sehen kam nicht ganz so gut zum Vorschein, weil parallel auch eine Faltenbildung stattfindet und das sich zusammen schlecht koordinieren läßt. Also eher nur das eine oder das andere. Ich habe mich für die Falten und Speckwackeln entschieden, weil das die Oberfläche viel lebendiger wirken läßt. Bei starker Spannung wird die Haut anbei auch sehnenartig in die Länge gezogen.

Wichtig war noch, daß ich den Hauteffekt von Beinen und dem Kopf weitestgehend ausschließe, weil die Teile eher unflexibel sind und seltsam wirken, wenn alles "nachwackelt".

Der Mund ist zwar schon geriggt, aber ich muß noch etwas dran arbeiten. Kaubewegungen wirken schon recht gut aber mögliche Sprechbewegungen oder sonstige Ausdrücke sind noch nicht das gelbe vom Ei.

Es gibt auch schon ein kleines erstes vages Konzept, was man mit den Charakteren später so alles anstellen könnte...

 
 
 

 


 
 
© 3D-Ring - deutsche 3D Software Community, Archiv 2001 - 2006