Wie die meisten Webseiten nutzen wir Cookies. Nähere Informationen dazu, wie wir mit diesen Cookies umgehen, können Sie in unseren Datenschutzbestimmungen lesen.   Einverstanden
 
 

3D Forum > Post Production Plugin für Maya - Mental Ray - (DOF)

Post Production Plugin für Maya - Mental Ray - (DOF)

12.12.2012 01:19
 
AngborMi. 12 Dez. 2012, 10:17 Uhr
Tschuldige wenn ich dumm frage, aber du willst destruktiv über das gerenderte Material mit PlugIn drüber gehen? Das heißt wenn ich den Renderoutput dann doch noch ohne möchte muss ich nochmal neu rendern?
 
GuyGoodMi. 12 Dez. 2012, 13:25 Uhr
Hey Peter,

Nein wir reden nicht aneinander vorbei und du hast mich genau so verstanden. Das Ding ist folgendes:

In deinem Youtube video behauptest du ab 11:50 min, dass es direkt in den renderingprozess eingreift, aber das tut es einfach nicht. Wozu auch, aber es geht mir darum. Du sagst, dass es noch während Mental Ray rendert angewendet wird, aber das stimmt auch nicht. Mental Ray ist fertig, und dann setzt dein Plugin an. Und es ist auch nicht im Rendering fest integriert, sprich dann wäre es ja auch nicht rückgängig zu machen.
Das sieht man ja auch, als du nach dem erneuten Rendern wieder den Farbkorrekturfilter löschst, dann ist der Effekt ja auch weg und man sieht, dass Mental Ray exakt so berechnet hat, wie es vorher auch berechnet wurde.
Das spielt ja auch keine Rolle, denn dein Plugin kann ja trotzdem Batch-Renderingfähig sein und eben die entsprechenden Anpassungen auf jeden Frame anwenden, es geht mir nur um die Tatsache, dass du nicht irgendwie in den MentalRay Prozess an sich eingreifst sondern du arbeitest einfach mit der Ausgabe von MR.
Ich könnte auch das Plugin danach schließen, erneut Rendern und die Color Correction wäre wieder angewendet worden.

Aha? Weil dann immernoch im Hintergrund der Filter aktiviert ist? Dann ist es aber quasi nicht geschlossen, von der Software-Seite her betrachtet?
Es geht mir einfach darum, dass es leicht verwirrend ist. Wenn für mich etwas "integriert" ist, dann beudetet das für mich, wenn ich wieder rendern drücke, dann kann ich die Filter dann löschen!!! und das Rendering sieht trotzdem so aus. In deinem Video wirkt es jedenfalls so, als wenn das Bild nochmal exakt gleich gerendert wurde (wurde es ja auch) nur dass direkt dann deine Filter daran angreifen.
 
winnibanMi. 12 Dez. 2012, 13:26 Uhr
@angbor:

Hi, natürlich nicht!

Es wird nie destruktiv gearbeitet. Man muss einzig und alleine >einmal< Rendern. Man kann dann danach so lange man möchte Filter hinzufügen und entfernen, ohne zwischendurch einmal erneut rendern zu müssen.


Einziger Grund rendern zu müssen: Man verändert Elemente in der 3D Szene (Objekte bewegen sich, Kamera bewegt sich, etc).

Grüße

Peter
 
winnibanMi. 12 Dez. 2012, 13:48 Uhr
Danke für deine Ausführung GuyGood,

jetzt verstehe ich, worum sich unsere Kernfrage dreht.

Ich kann Dir kurz eine nähere Information zur Technik und zu Mental Ray geben.

Wenn wir von "Integration in den Renderingprozess" sprechen, verstehen wir darunter zwei verschiedene Dinge.

Ersteinmal zu Mental Ray: Mental Ray bestitzt ein verstecktes, fast kaum dokumentiertes Feature:
Die sogenannten Output Shader. Wenn das 3D-Rendering abgeschlossen ist, kann man auf das ausgegebene Bild zusätzlich 2D-Filter anwenden. Dieser Verarbeitungsschritt ist in Mental Ray integriert. Diesen habe ich nicht "erfunden."

Das bedeutet: Ein Rendering in Mental Ray besteht einmal aus einem 3D Rendering und aus einem 2D-Rendering.

Ich nehme an, dass Du unter "Rendering" alleinig das 3D Rendering verstanden hast.

Meine Entwicklung besteht aus zwei Komponenten. Ich habe einmal drei Output Shader programmiert: Color Blance / HueSaturation und den DOF Filter.

Der weitaus schwierigere Teil war der, Änderungen an den Filtern direkt im Renderview sichtbar zu machen.
Das ist ja gerade der Kern von Post Production. Man manipuliert das Bild auf 2D-Basis ohne ständig erneut langwierig rendern zu müssen.

Aha? Weil dann immernoch im Hintergrund der Filter aktiviert ist?

Genau, jedoch ist dies ein Mental Ray Filter und hat nichts mit meinem MayaPlugin bzw. der GUI zu tun.

wenn ich wieder rendern drücke, dann kann ich die Filter dann löschen!!! und das Rendering sieht trotzdem so aus.
Den Sinn kann ich hier nicht nachvollziehen. Wenn nach dem Löschen von Color Correction Filtern, die Color Correction immer noch angwendet wird, wie hätte ich dann jemals die Chance die Korrekturen nachträglich zu ändern? Damit hätte ich eine Einstellung vorgenommen, welche Tief im Renderprozess verschwindet und nie wieder anfassbar wäre.

In deinem Video wirkt es jedenfalls so, als wenn das Bild nochmal exakt gleich gerendert wurde (wurde es ja auch) nur dass direkt dann deine Filter daran angreifen.

Exakt, der erste Part im Renderprozess, das 3D Rendering, ist gleich. Direkt danach wendet Mental Ray seine Output Shader Technologie an. Diese beiden Parts zusammengefasst ist das vollständige Rendering. 2D-Rendering ist auch Rendering.
Muss es ja auch. Würde der DOF-Effekt im 3D-Rendering berechnet werden, dann würde es wieder unheimliche lange dauern zu rendern. Nachträglich auf 2D-Basis geht alles viel schneller.


Um es noch einmal zusammenzufassen:
Du sagst, dass es noch während Mental Ray rendert angewendet wird, aber das stimmt auch nicht. Mental Ray ist fertig, und dann setzt dein Plugin an.


Genau das ist nicht der Fall. Die Anwendung der Filter findet schließlich doch in der Mental Ray Rendering Verarbeitungskette statt. Es gibt kein Plugin von mir, welches sich heimlich in den Renderprozess "herein trickst..."
 
GuyGoodMi. 12 Dez. 2012, 14:16 Uhr
Hey, die Output Shader kenne ich
Und ja, ich gehe bei "Rendering" nur vom 3D-Prozess aus. Und damit passen dann unsere beiden Definitionen. Aber du hast schon recht, dass es in MR dann integriert ist, wenn du dich auf die Output Shader stützt, inwiefern das "integriert" ist. Aber gut, mehr wollte ich gar nicht wissen smile bzw darum drehte sich mein Punkt.
Danke für die Erläuterung.
Wie gesagt, mit deiner Umfrage kann ich dir nicht helfen, da ich nicht in der Industrie bin und auch seltenst mal Postproduction vornehme.
 
winnibanMi. 12 Dez. 2012, 16:08 Uhr
Dann ist ja super, dass wir das geklärt haben. Vermutlich sollte ich das in dem Video etwas deutlicher ausführen.

In habe drei Fragebögen formuliert. Einen für die Industrie, einen für Studierende, welche sich gerade in einem Maya Kurs befinden. Und einmal für private Hobby Entwickler. Und genau diesen habe ich hier verlinkt.
Firmen schreibe ich separat an.

Also im Grunde würde mich deine Meinung im Fragebogen doch schon sehr interessieren. Du hast mir ja gezeigt, dass Du dich in diesem Themenbereich doch sehr gut auskennst. Und wenn bei heraus kommt, dass du Post Production selber nicht so oft verwendest, ist das auch eine sehr nützliche Info für meine kleine Statistik.

Weil gerade in dem Moment, wo du selber Post Production im klassischen Sinne nicht oft verwendest, wäre es meiner Meinung nach denkbar, dass du mein Plugin theoretisch doch nutzen könntest ?

Grüße

Peter


 
winnibanSo. 20 Jan. 2013, 14:34 Uhr
Grüßt euch,

meine Entwicklung hat mittlerweile zwei Updates durchlaufen, welche ich euch nicht vorenthalten möchte.

1. Edge Repeat (Dof):

Vermutlich haben die einen oder anderen schon bemerkt, dass bei meiner DOF Lösung ein Schwarzverlauf an den Rändern entsteht. Dies liegt daran, dass die Pixel am Rand keine Informationen ihrer Nachbarpixel außerhalb des Bildes erhalten. After Effects löst dies mit edge repeat. Das Bild wird insgeheim vergrößert, durch Kantenverdopplung, damit auch die Randpixel ihre volle Intensität erhalten. Diese Technik ist nun implementiert.

2. Autofocus:

Bereits einige haben den Wunsch geäußert, die Fokusebene durch das Camera Aim bestimmen zu können. So muss man nun auch keine Entfernungseinschätzungen mehr von Hand manuell eingeben.

Man kann nun im Viewport die Fokusebene intiutiv verschieben und erhält sofortige Rückmeldung im Renderview.

http://www.youtube.com/watch?v=G7W3pSNL_t0 (2min Demo)

Ich möchte hier auch noch einmal die Möglichkeit nutzen, in den letzten Zügen meiner Masterarbeit für meine kleine Umfrage zu werben:

Wer im kommerziellen Bereich arbeitet, sollte sich diese Version anschauen:
https://docs.google.com/spreadsheet/viewform?formkey=dHNsZkhEMXlLVDBzem5Sc1hHaDhVekE6MA#gid=0

Und wer im Hobbybereich tätig ist diese:
https://docs.google.com/spreadsheet/viewform?formkey=dGczT2pWNDNsOGZLZktnSThRSkVfN3c6MA#gid=0


Besten Dank
Grüße
Peter Salziger
 
fat-freddys-dogMo. 21 Jan. 2013, 15:25 Uhr
Hallo erstmal,

zuallererst will ich klarstellen, das ich im 3D-Bereich aus dem Hobbybereich komme und hier jetzt nur über den Workflow 3DMax sprechen kann. Ich arbeite mit Einzelbildsequenzen und/oder dem rpf/rla Dateiformat - welches mir u.a. die Informationen von Kamerafahrten und Lichtern mitliefert die ich in After Effects wiedrum auslesen kann. Ich versuche jetzt mal die Vor- und Nachteile aus meiner Sicht zu schildern, weil ich in deinem Fragebogen die Fallsituationen nicht dediziert klären kann.

- Kann man z.B. Adobe After Effects mit Autodesk Maya vereinen?

Ich verstehe die Frage nicht ganz, weil sich das technisch sicher realisieren lässt. 2D-Programme können heute mit 3D-Objekten umgehen, und umgekehrt. Photoshop hat eine eigene 3D-Implementierung, Illustrator kann Drehkörper und Extrusionskörper ertstellen, in After Effects sind 3D-Ebenen möglich u.s.w. Für 3D-Programme gibt es eben Austauschformate wie Collada, rpa/fla, 2D-Ebenen finden wir in Texturen und Flächen und es lassen sich Kameraeffekte anwenden.

Bei "3DMax" ist es in der neuesten Version so, das über Multisync die AfterEffects Nachbearbeitung ähnlich wie bei einem Smartobject in Photoshop integriert ist(habe keine Erfahrung bei "3DMAX" mit, weil ich eine wesentlich ältere Version nutze, die mir für den Hobbybereich völlig ausreicht und auch nicht das Geld habe, mir laufend neue Lizenzen für ein "Hobby" zu holen)

- Macht dies Sinn?

Jein!!!

Ja,
für kleinere Farbkorrekturen/DOF e.t.c. in Standbildern z.B. (wie in deinem Beispielvideo)

Nein,
für Animationen, weil ich hinterher im Schnitt mit z.B. Premiere eh nochmals Korrekturen machen muss, um das Material verschiedener Szenen von der Farbgebung aufeinander abzustimmen. Wenn bei Trickeffekten, wie z.B. Regen/Schnee oderden ganzen Transitionseffekten oder auch der Maskenarbeit eine Kleinigkeit nicht stimmt, muss ich alles von vorne rendern (womit sich zum Teil die Zeitfrage schon geklärt hat). Hier bietet es sich an, so lange wie möglich mit Rohmaterial zu arbeiten, um keinen Qualitätsverlust zu haben und den direkten Einfluss auf die einzelnen Schritte zu behalten um dediziert eingreifen zu können.

- Kann man mit diesem Konzept Zeit sparen?

Jein!!!

Ja,
für kleinere Farbkorrekturen/DOF e.t.c. in Standbildern z.B. (wie in deinem Beispielvideo)

Nein,
weil wenn ich mir die Benutzeroberfläche von beiden Programmen ansehe, fühle ich mich eh schon oft von den Optionen/Möglichkeiten überfallen und muss ewig suchen um das zu finden was ich gerade an Werkzeug/Einstellung brauche. An dieser Stelle muss ich sagen, wenn beide Programme verbunden werden, daß ich den Wald vor lauter Bäumen nicht mehr finde und mir damit der Spaß am "Hobby somit flöten gehen würde, oder anders gesagt: Das wäre wie mit nem Weltraumshuttle auf der Landstraße zu cruisen. Selbiges kann ich mir auch negativ für den Workflow eines Profis vorstellen.

- In welchen Anwendungsfällen erhält man Vorteile?

für kleinere Farbkorrekturen/DOF e.t.c. in Standbildern z.B. (wie in deinem Beispielvideo)



Meine Sichtweise ist alsKonstruktive Kritik gedacht und ich hoffe, es hilft dir bei deiner Arbeit weiter,

mfg ;-)
 
winnibanMo. 21 Jan. 2013, 22:35 Uhr
Vielen Dank für deinen ausführlichen Kommentar. Weiß ich sehr zu schätzen und dem ist in deinem Bereich auch nicht mehr viel hinzuzufügen.

Eine Frage hätte ich noch an dich, auf welche du nicht eingegangen bist.

Wie siehst du den Nutzen in meiner Entwicklung für die Erzeugung von schnellen Previews ?
Oft rendert man kleine Testsequenzen heraus und möchte vielleicht auch schon einmal erahnen, wie das ganze mit Dof und Color Correction wirken "kann".

Vor allem wenn man öfters solche Testsequenzen erstellt, spart man meiner Meinung nach den Übergang zu After Effects. Es bleibt ja bei Testsequenzen, welche später sowieso nicht in die finale Produktion mitübernommen werden.
Gerade hier sehe ich einen weiteren Nutzen bei Animationen und gerade nicht nur das "ich optimiere Standbilder", wie du es angesprochen hast.

Grüße
Peter




 
fat-freddys-dogMo. 11 Feb. 2013, 17:59 Uhr
na ja, dafür wäre es sicher ganz nett. aber ab diesem moment stelle ich mir eine gute lösung eh ganz anders vor. statt einer integration mit all ihren guten und schlechten seiten, wäre es nicht besser sich zu überlegen, ein modul zu entwickeln das über das collada-format wie smartobjekte in photoshop oder Goz in z-brush funktioniert - selbst zwischen AE und premiere gibts sowas (da werden die objekte plaziert/verknüpft und nicht eingebunden, und beim anwählen öffnet sich das entsprechende programm?) - oder verstehe ich da jetzt was völlig falsch ????
 
 

 


 
 
© 3D-Ring - deutsche 3D Software Community, Archiv 2001 - 2006