|
|
|
|
Meddl Loide,
freakadelle braucht eindeutig bessere Saftboxen!
---
Sieht super aus!
Wie schauts aus mitm Bierchen? Dieses Wochenende hab ich keine Zeit, aber danach bis Weihnachten ist alles frei. \o/ (Samstags.)
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Murica am 15.11.2017 14:48]
|
|
|
|
|
|
Heute neues Licht ausprobiert.
Ich komm der Sache näher. Ein paar Schatten sind noch zu viel drin, da ich erstmal zwei Leuchten gekauft habe für den Test. Da die Verteilung und Lichttemperatur aber soweit passt kann ich den Rucksack demnächst mal in die Engine holen.
Wenn mein Max nicht bei dem trianglecount abkacken würde Das model lädt wunderbar und das tool bleibt navigierbar, aber sobald ich in die face oder vert selection gehe hab ich einen frame pro minute. Keine Ahnung worans liegt. Ram ist noch genug da. Evtl die Gforce 770 upgraden?
|
|
|
|
|
|
|
| Zitat von derinderinderinderin
Zum Scan-Thema. Hast du Photogrammetrie schon mal ausprobiert? Damit habe ich super Ergebnisse bekommen. (Besser als mit Kinect und Realsense)
Das berechnen der Meshes dauert aber leider sehr lange. Also eigentlich nur praktikabel, wenn du nen zweiten Rechner für hast, oder Geld für CloudServices ausgeben willst.
| |
Ich mache hier im Forum ständig gratis Werbung für die Software, aber egal:
RealityCapture.
Was bei Bodyscans mit 120 Fotos mit Agisoft Photoscan nen ganzen Tag gedauert hat, dauert bei mir aktuell 20 Minuten.
Geländeaufnahme aus 700 20MP-Fotos? 1-2 Stunden.
Man braucht weder Cloudservices, noch nen zweiten Rechner und die Ergebnisse sind dazu noch besser als bei der Konkurrenz.
Spart mir jeden Tag x Stunden Zeit.
Mesh Cleanup fällt natürlich trotzdem an, aber da hat man bei Kinect Scans ja sowieso auch.
|
|
|
|
|
|
|
Langweilige/unfertige Beispiele, aber das einzige was ich hier zZ privat auf der Platte habe:
1) 40 Fotos von Jesus, hier ums Eck. Lediglich den Boden weggecroppt, retopo, UV, bake. Mit ZRemesher und UVmaster letztlich ~40 Minuten von Fotos zu Modell?
Siehe hier.
2) War im September in Barcelona am Cementiri de Montjuic unterwegs. Ich wollte so eine lustige Photogrammetrie-am-Smartphone-App ausprobieren, Ergebnis total unbrauchbar, findet keine zusammenhängenden Punkte.
Die Fotos hat die App auch gecroppt und mit schwarzen Balken aufgefüllt. Ja nu, egal. Verhunzte 37 Fotos in RC, normal Quality, fertig.
Mir fehlen überall an den Rändern Fotos/Informationen, aber ich bin an sich gar nicht davon ausgegangen, dass da überhaupt etwas brauchbares aus 37 Fotos vom Nexus 5X rauskommt.
Habe mitgestoppt, von Fotos in RC laden, bis texturiertes Modell (natürlich mit schrecklicher Topologie und UVs): 12 Minuten.
Siehe hier.
|
|
|
|
|
|
|
Was für ne Kamera-Objektiv-Kombi ist da zu empfehlen? Oder ist das egal
|
|
|
|
|
|
|
Möglichst viele MP, Objektiv mit 50mm Fixbrennweite.
Besser Canon, statt Nikon weil frag mich nicht.
Bin meistens mit Canon EOS 80D unterwegs, in Multi-Cam-Rigs sind aber vor allem Popel-100Ds gängig.
Aber siehe oben, du bekommst da selbst mit Handykameras noch bessere Ergebnisse als mit Kinect raus.
Als Einzelkamera werden für Einsteiger bspw. meistens auch einfach die 600D, 700D, was auch immer gerade aktuell ist empfohlen.
/
DOF ist schlecht, RAW ist hilfreich um in dunklen Bereichen durch Aufhellung wieder mehr Tie Points zu finden, aber bei akzeptabler Ausleuchtung nicht essentiell.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Kaffeekränzchen am 15.11.2017 20:47]
|
|
|
|
|
|
Hast du damit mal Kleidung bzw Menschen gescanned? Brauchen diverse Objekte Vorbehandlung? Wenn mans richtig macht captured man doch nur Albedo und ich hab in Erinnerung dass das mit etwas mehr Aufwand verbunden ist?
Im grunde interessiert mich Momentan wie einfach ich einzelne Bekleidung scannen kann. Idee wäre ne Schaufensterpuppe mit Gelenken zu beorgen und dann einzelne Kleidungsstücke zu scannen. Bei nem menschlichen Modell kann ich leider Kopf und Hände nicht so einfach entfernen
|
|
|
|
|
|
|
Klar, ideal wäre nur Albedo, aber das ist ohne Cross Polarization schwierig. Den Spaß kann man sich bei inanimate Objects mit wechselnder Lichtposition und Helligkeitsdurchschnitt antun, mir war das aber bisher zuviel Aufwand. Bisher habe ich alle Schatten, wenn nötig, in Post entfernt, ich verwende es aber auch mehr für Drucke als RT Assets, wo es imho nicht so schlimm ist.
Wenn ich mich recht erinnere hatte Epic letztes Jahr ein Tutorial für ihre Photogrammetrie-Außenaufnahmen.
Menschen sind mit einzelner Kamera schwierig, aber machbar. Da hast du durch Mikrobewegungen immer Bumps in der Oberfläche, die manuell entfernt werden müssen.
Oberflächen mit Struktur/Muster sind immer besser. Ganz schwarz, ganz weiß ist immer schwierig.
Glänzende Oberflächen sind schwierig, ich verwende dafür so einen mattierenden Kreidespray, der dir dann aber natürlich die Textur zerstört. In dem Fall würde ich dann mit mehreren Photosets arbeiten und die mattierten Photos für das Mesh und die nicht-mattierten für die Texture verwenden.
Wir verwenden für alles menschliche/tierische unser Multicam-Rig.
Bei anderen Fragen gerne auch PM, bin momentan am Handy.
Davon ab, hast du dir Marvelous Designer Mal angeschaut?
RealityCapture hat aber glaube ich eine Demo ohne Exportfunktion, ich würde dir einfach Mal empfehlen ein paar (Handy-)Schnappschüsse zu machen und zu schauen ob du etwas damit anfangen kannst.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Kaffeekränzchen am 15.11.2017 21:34]
|
|
|
|
|
|
Marvelous kenne ich, aber so viel Zeit habe ich nicht
RealityCapture habe ich mir schon gezogen. Ich versuch damit gleich mal den Rucksack zum Vergleich zu scannen
|
|
|
|
|
|
|
Moment, damit kann man leicht und schnell 3D Objekte aus Fotos erstellen? Das ist ja sehr nice.
Hast du ein Beispiel mit einem Menschen?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Slutti am 15.11.2017 22:32]
|
|
|
|
|
|
Ok, das war tatsächlich einfacher als Gedacht...
Die Textur ist selbst mit ner miesen Tablet-Kamera nicht schlecht. Selbst die scheiss Jacke im Hintergrund sieht besser aus als der depth scan
Allerdings braucht die Oberfläche wohl jede Menge liebe, bevor ich die baken kann
Kommt das mit besserem Equipment noch sauberer raus? Licht sollte eigentlich ok sein.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von freakadelle am 15.11.2017 23:17]
|
|
|
|
|
|
Okay, das sind dann natürlich nur Fake-Meshes.
Wenn mit Tablet/Handy, dann würde ich das auf jeden Fall eher tagsüber machen.
Da ist die Chance höher, dass die Kamera-App auch tatsächlich Fotos mit weniger ISO und ohne Bewegungsunschärfe hinbekommt.
Und natürlich möglichst viele Fotos, davon kann man quasi nie genug haben.
Sicherheitshalber doppelt soviel wie man denkt und aus unterschiedlichen Winkeln Kreise herum drehen.
Zuerst Kamera von unten in 1m-Höhe möglichst viele Fotos.
Kamera Frontal 1,5m-Höhe.
Dann von oben. Usw usf.
Man muss halt Bedenken, dass jedes ISO-Rauschen als individueller Punkt betrachtet werden könnte, dann kommt da am Ende nur Matsch raus.
Matsch mit schöner Textur, aber Matsch.
Hast du mal einzelne Fotos aus der Serie? Das sieht nämlich doch sehr dunkel aus.
Der Rucksack sieht eigentlich schon so aus, als sollte man da mit halbwegs passabler Kamera und ausreichend Licht vernünftige Modelle rausbekommen.
Unfaires Beispiel, weil Steinwände sehr easy sind, aber hier das Barcelona-Mesh von gestern Abend ohne Textur.
Selber Winkel mit Textur.
| Zitat von Slutti
Hast du ein Beispiel mit einem Menschen?
| |
Leider nichts mit Single-Cam-Setup hier auf der Platte.
Ich kann nicht dafür vouchen, aber das ist der erste Google-Treffer.
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Kaffeekränzchen am 16.11.2017 20:15]
|
|
|
|
|
|
Ja, die Kameras in Kinect und co sind von der Auflösung her für Bilder kacke. Die Dinger sind gut für 3D-Objekte bzw. Tiefeninformationen, aber die Texturen im selben Durchgang zu erstellen ist... gewagt
Gibt einige Programme die Dir die Umgebung als Pixelwolke scannen, da wird das Resultat dann qualitativ besser, aber inwiefern man da dann vernünftige Meshes draus erstellen kann entzieht sich meiner Kenntnis.
Ich hab die Dinger ja eh nur für untexturierte Objekte genutzt als Vorstufe für den 3D-Druck
Optimal wär ne Kombination aus Kinect / X-Tion und vernünftiger Digicam.
|
|
|
|
|
|
|
Mir war heute ein wenig langweilig und ich hab mal Blender angeschmissen...
|
|
|
|
|
|
|
Wie ich dich kenne bist du auf dem Weg scheiss für deine Boardgames zu drucken?
e: Ist nochn bisschen wenig um mehr dazu zu sagen
|
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von freakadelle am 12.12.2017 21:50]
|
|
|
|
|
|
Tatsächlich wollte ich einfach mal schauen, was ich so für Sachen erstellt bekomme.
To do:
Farm (jetzt so halb fertig, ich will das Weizen animieren, dass es im Wind weht aber ich bin zu dumm)
Mine
Lehmgrube
Holzfäller
Haus
Townhall
Und was mir so einfällt
Aber eigentlich kenne ich mich gut genug um jetzt keine Lust mehr zu haben.
Und vielleicht noch eine Käserei mit Kühen aber Lebewesen sind scheiße.
|
|
|
|
|
|
|
Jetzt hab ich mich doch nochmal dran gesetzt:
e: Ja ich weiß, ziemlich holprig, die Animation. Aber ich weiß auch nicht, ob es so, wie ich es gemacht habe, die beste Idee ist...
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Black1900 am 13.12.2017 15:54]
|
|
|
|
|
|
Wenn es nicht zum ausdrucken is, würde ich das Gras nicht unbedingt so machen
Da es letztens mit Chris im TS aufkam:
Frankfurter am Freitag zufällig mal Zeit fürn Bierchen?
Kann zwar nicht so lange, da ich bis 18 Uhr arbeite und Samstag in die Heimat fahre, aber für 2-3 Bierchen wäre ich zu haben!
Evtl wäre auch ein Arbeitskollege dabei, der Obdachlos‘d gerade bei mir rum.
|
|
|
|
|
|
|
Ich wäre dabei, brudi.
Kann aber nur alkoholfreies Weizen saufn.
|
|
|
|
|
|
|
| Zitat von Murica
Wenn es nicht zum ausdrucken is, würde ich das Gras nicht unbedingt so machen
Da es letztens mit Chris im TS aufkam:
Frankfurter am Freitag zufällig mal Zeit fürn Bierchen?
Kann zwar nicht so lange, da ich bis 18 Uhr arbeite und Samstag in die Heimat fahre, aber für 2-3 Bierchen wäre ich zu haben!
Evtl wäre auch ein Arbeitskollege dabei, der Obdachlos‘d gerade bei mir rum.
| |
Vorschläge nehme ich gerne. Kenne mich mit Blender nicht gut aus. Oder dem Thema generell.
Freitag ist leider eng bei mir... Ich glaube nächstes Jahr ist da wahrscheinlicher
Sorry.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ich will.
Morgen mal Fragen, eventuell bekomm ich ein Team Limbic zusammen. (aber eher nicht. )
|
|
|
|
|
|
|
¯\_(ツ)_/¯
Dachte es würde schon auf der PAX South angekündigt werden, heute dann eben.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Murica am 18.01.2018 23:02]
|
|
|
|
|
|
Nach unzähligen Tests und temporären Sachen endlich mal ein sauberes skeleton/rig, was auch realistische proportionen hat
Zwar ziemlich basic, aber alles was ich brauche. Ist mit Absicht auf das minimum reduziert, weil die Kamera zu jeder Zeit weiter entfernt ist als third person.
Arme, Beine und Kopf haben ne einfache IK-Chain, weshalb da kein controller dran ist.
Der Vorteil, wenn man alles selbst machen kann, kommt mit dem Nachteil, dass man alles selbst machen muss D:
|
|
|
|
|
|
|
| Zitat von Murica
Ich will.
Morgen mal Fragen, eventuell bekomm ich ein Team Limbic zusammen. (aber eher nicht. )
| |
Werden wohl ein Team zusammenbekommen und im Mediencampus Dieburg vertreten sein. (Oder in der Firma, wenn es ein OK gibt.)
Falls jemand der Raum FFM Leute Lust hat. *hust*
e/ Ein Coworker war lustigerweise schonmal bei euch für n Jam.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Murica am 22.01.2018 14:05]
|
|
|
|
|
|
Hab leider keine Skills und auch keine Zeit jetzt am Wochenende.
Lust hätte ich aber gehabt.
|
|
|
|
|
|
|
Werde auch wieder beim GGJ mitmachen, aber nur in einer kleinen Jam Site im lokalen Hackspace
Memories Of Mars find ich gar nicht so uninteressant, mal im Auge behalten Allerdings sehen die Screenshots irgendwie so steril und langweilig aus
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von MartiniMoe am 22.01.2018 16:20]
|
|
|
|
|
|
GGJ wird jedenfalls anspruchsvoll, weil neue Leute im Team und das Wochenende durch 3000 Geburtstagsfeiern auseinander gerissen wird.
|
|
|
|
|
|
|
| Zitat von MartiniMoe
Werde auch wieder beim GGJ mitmachen, aber nur in einer kleinen Jam Site im lokalen Hackspace
| |
InnoGames haben uns den Hintern gerettet, da wir es nicht auf unsere lokale Location schaffen.
Aber wird lustig \o/ und anstrengend /o\
|
|
|
|
|
|
Thema: Das pOT erstellt Spiele 4 ( code code durrrr ) |